Esse projeto provavelmente não está em um nível em que o GC se torne um problema. Entre a “maioria dos projetos hoje em dia”, na prática, muitas vezes a adoção de uma linguagem de programação é mais uma questão de preferência do que propriamente dos pontos fortes ou limitações de uma linguagem específica. Ainda assim, se me perguntarem qual é a vantagem comparativa que Rust tem sobre Go como linguagem de programação de uso geral, eu diria que é o nível de abstração que Rust oferece e a capacidade de detectar vários erros em tempo de compilação. Claro, Go também tem vantagens em relação a Rust, como programação assíncrona mais simples, tempo de compilação rápido e sintaxe concisa.
No Rust, uma grande parte dos erros é capturada na compilação, então tive a sensação de que até a falha na compilação acaba ajudando a IA a seguir pelo caminho certo.
Bem, é só um palpite, mas acho que pode ser porque a barreira de entrada do Rust desapareceu.
A maior dificuldade era você programar e a compilação continuar falhando, mas agora a IA faz isso no lugar.
DIY, movimento maker, indie, punk e open source são todos contrapontos à industrialização, ao capitalismo e ao consumismo, mas dizer que superar seus limites significa aceitar o consumismo é algo irônico.
Concordo que a vibe coding se encaixa na lógica do consumo. Acho que é a versão em programação da moda recente de abrir caixas surpresa da Temu e da AliExpress (https://www.asiae.co.kr/article/2024053117460950053).
Mas, se a ideia é que essa lógica do consumo seja uma forma de não repetir o fracasso do movimento maker, como no comentário do HN, aí há vários pontos com os quais não consigo concordar.
A vibe coding está dando continuidade à trajetória histórica dos desenvolvedores cidadãos.
Acredito que o vibe coding agora caminha para tornar a programação algo tão fácil, rápido e indispensável quanto a eletricidade.
Muitos programadores geniais de inúmeras empresas já seguem programando sem escrever uma única linha de código, usando prompts e agentes.
Há quem tente minimizar isso, mas me parece difícil contestar que o vibe coding, de Andrej Karpathy, seja algo que marcará a história dos computadores.
Boa pergunta. Na verdade, a condição "híbrida" do nosso experimento foi exatamente nessa direção — uma configuração que fornecia um resumo organizado junto com os logs brutos de experiência.
No fim, o híbrido teve o melhor resultado, com 4,95/5,0. Quando dávamos apenas o resumo, era 2,65, mas ao acrescentar registros do processo como "falhou" e "causa desconhecida", os pontos fracos do resumo acabavam sendo compensados.
Então, a conclusão é: "o problema não é o resumo em si, mas sim que ele precisa incluir também o processo e as incertezas".
Mas, como N=1, ainda são necessários estudos posteriores para saber se isso pode ser usado de forma geral com diferentes perfis de usuários.
Exatamente. Eu também imaginei no começo que uma memória sintética seria pelo menos melhor que a baseline, mas fiquei surpreso quando vi os resultados.
Analisando, percebi que o ponto principal era a "preservação da incerteza". Nos logs brutos, ficam rastros como "tentei isso, mas não funcionou" e "não sei qual é a causa", então o agente responde que não sabe quando realmente não sabe; já no resumo, todo esse contexto some, e ele acaba dando respostas erradas com confiança.
Interessante, mas também fico pensando se isso não acabou evoluindo simplesmente para o lado de usar mais tokens e cobrar mais caro; e, na real, também parece que certas bibliotecas acabam sendo só geradas porque a IA já foi treinada nelas.
Pensar que apenas bibliotecas específicas vão evoluir por preferência dos agentes também dá uma sensação meio estranha.
No fim, o Departamento de Defesa dos EUA deixou a Anthropic de lado e escolheu a OpenAI, mas há uma diferença de formulação que costuma passar batida.
A OpenAI também propôs mecanismos concretos de implementação, como a criação de salvaguardas técnicas, o envio de FDEs (engenheiros de campo) e implantação dedicada em nuvem.
A Anthropic exigiu cláusulas de exceção no nível dos termos de uso.
Do ponto de vista do Departamento de Defesa dos EUA, isso parece ter sido anunciado quase como uma punição por ressentimento, sob a leitura de que "uma empresa privada exerce poder de veto sobre casos de uso individuais".
Esse acordo foi anunciado pouco depois de a Anthropic ser classificada como risco para a cadeia de suprimentos,
e, olhando a matéria da Axios, o Departamento de Defesa usou o confronto com a Anthropic para definir o tom das negociações com outras empresas de IA;
a OpenAI, sob essa pressão, acabou conduzindo um acordo em um formato que o Departamento de Defesa podia aceitar.
A diferença na forma das declarações oficiais também é grande.
Sam Altman disse que "o Departamento de Defesa demonstrou profundo respeito pela segurança",
enquanto a Anthropic manteve até o fim o tom de que "não pode, em consciência, concordar com as exigências do Departamento de Defesa".
Mesmo partindo dos mesmos princípios, parece que a diferença foi grande em termos de preservar ou não a imagem do Departamento de Defesa;
no fim, como a OpenAI aceitou e isso deixaria a situação com uma aparência estranha,
Sam Altman acrescentou no fim algo como "por favor, ofereçam essas condições igualmente a todas as empresas de IA",
o que parece ter sido uma mensagem indireta pedindo uma flexibilização das medidas contra a Anthropic.
Uau
Esse projeto provavelmente não está em um nível em que o GC se torne um problema. Entre a “maioria dos projetos hoje em dia”, na prática, muitas vezes a adoção de uma linguagem de programação é mais uma questão de preferência do que propriamente dos pontos fortes ou limitações de uma linguagem específica. Ainda assim, se me perguntarem qual é a vantagem comparativa que Rust tem sobre Go como linguagem de programação de uso geral, eu diria que é o nível de abstração que Rust oferece e a capacidade de detectar vários erros em tempo de compilação. Claro, Go também tem vantagens em relação a Rust, como programação assíncrona mais simples, tempo de compilação rápido e sintaxe concisa.
Mesmo sendo um contrato do mesmo nível, a confiança e a imagem passam uma sensação bem diferente. Acho que vou até cancelar minha assinatura do GPT.
Que desagradável, desculpa
Uau, que incrível. Parece que isso foi possível por causa do RustPython. Espero que tenha ótimos resultados!
No Rust, uma grande parte dos erros é capturada na compilação, então tive a sensação de que até a falha na compilação acaba ajudando a IA a seguir pelo caminho certo.
Tentei me inscrever.
Bem, é só um palpite, mas acho que pode ser porque a barreira de entrada do Rust desapareceu.
A maior dificuldade era você programar e a compilação continuar falhando, mas agora a IA faz isso no lugar.
Parece que era um teste de Joke.
DIY, movimento maker, indie, punk e open source são todos contrapontos à industrialização, ao capitalismo e ao consumismo, mas dizer que superar seus limites significa aceitar o consumismo é algo irônico.
Concordo que a vibe coding se encaixa na lógica do consumo. Acho que é a versão em programação da moda recente de abrir caixas surpresa da Temu e da AliExpress (https://www.asiae.co.kr/article/2024053117460950053).
Mas, se a ideia é que essa lógica do consumo seja uma forma de não repetir o fracasso do movimento maker, como no comentário do HN, aí há vários pontos com os quais não consigo concordar.
A vibe coding está dando continuidade à trajetória histórica dos desenvolvedores cidadãos.
Acredito que o vibe coding agora caminha para tornar a programação algo tão fácil, rápido e indispensável quanto a eletricidade.
Muitos programadores geniais de inúmeras empresas já seguem programando sem escrever uma única linha de código, usando prompts e agentes.
Há quem tente minimizar isso, mas me parece difícil contestar que o vibe coding, de Andrej Karpathy, seja algo que marcará a história dos computadores.
Boa pergunta. Na verdade, a condição "híbrida" do nosso experimento foi exatamente nessa direção — uma configuração que fornecia um resumo organizado junto com os logs brutos de experiência.
No fim, o híbrido teve o melhor resultado, com 4,95/5,0. Quando dávamos apenas o resumo, era 2,65, mas ao acrescentar registros do processo como "falhou" e "causa desconhecida", os pontos fracos do resumo acabavam sendo compensados.
Então, a conclusão é: "o problema não é o resumo em si, mas sim que ele precisa incluir também o processo e as incertezas".
Mas, como N=1, ainda são necessários estudos posteriores para saber se isso pode ser usado de forma geral com diferentes perfis de usuários.
Então, se configurarmos a memória sintética para conter o processo dessas tarefas, seus fracassos e sucessos, isso mudaria um pouco?
Exatamente. Eu também imaginei no começo que uma memória sintética seria pelo menos melhor que a baseline, mas fiquei surpreso quando vi os resultados.
Analisando, percebi que o ponto principal era a "preservação da incerteza". Nos logs brutos, ficam rastros como "tentei isso, mas não funcionou" e "não sei qual é a causa", então o agente responde que não sabe quando realmente não sabe; já no resumo, todo esse contexto some, e ele acaba dando respostas erradas com confiança.
Era algo que eu já sentia empiricamente até certo ponto, mas a memória sintética está muito mais desastrosa do que eu imaginava.
Tentei usar, mas parece que só dá suporte até o Gemini 2.5... Será que até a lista de modelos compatíveis foi feita no vibe coding?
Interessante, mas também fico pensando se isso não acabou evoluindo simplesmente para o lado de usar mais tokens e cobrar mais caro; e, na real, também parece que certas bibliotecas acabam sendo só geradas porque a IA já foi treinada nelas.
Pensar que apenas bibliotecas específicas vão evoluir por preferência dos agentes também dá uma sensação meio estranha.
No fim, o Departamento de Defesa dos EUA deixou a Anthropic de lado e escolheu a OpenAI, mas há uma diferença de formulação que costuma passar batida.
A OpenAI também propôs mecanismos concretos de implementação, como a criação de salvaguardas técnicas, o envio de FDEs (engenheiros de campo) e implantação dedicada em nuvem.
A Anthropic exigiu cláusulas de exceção no nível dos termos de uso.
Do ponto de vista do Departamento de Defesa dos EUA, isso parece ter sido anunciado quase como uma punição por ressentimento, sob a leitura de que "uma empresa privada exerce poder de veto sobre casos de uso individuais".
Esse acordo foi anunciado pouco depois de a Anthropic ser classificada como risco para a cadeia de suprimentos,
e, olhando a matéria da Axios, o Departamento de Defesa usou o confronto com a Anthropic para definir o tom das negociações com outras empresas de IA;
a OpenAI, sob essa pressão, acabou conduzindo um acordo em um formato que o Departamento de Defesa podia aceitar.
A diferença na forma das declarações oficiais também é grande.
Sam Altman disse que "o Departamento de Defesa demonstrou profundo respeito pela segurança",
enquanto a Anthropic manteve até o fim o tom de que "não pode, em consciência, concordar com as exigências do Departamento de Defesa".
Mesmo partindo dos mesmos princípios, parece que a diferença foi grande em termos de preservar ou não a imagem do Departamento de Defesa;
no fim, como a OpenAI aceitou e isso deixaria a situação com uma aparência estranha,
Sam Altman acrescentou no fim algo como "por favor, ofereçam essas condições igualmente a todas as empresas de IA",
o que parece ter sido uma mensagem indireta pedindo uma flexibilização das medidas contra a Anthropic.
Não dava para manter simplesmente no minimalismo...?
Ou então, já que o WordPad acabou, lançar algo novo e mais leve...