1 pontos por GN⁺ 3 시간 전 | 1 comentários | Compartilhar no WhatsApp
  • Com o desenvolvimento assistido por IA, o critério de escolha de linguagem está mudando da velocidade de escrita humana para a capacidade de correção pela IA e o desempenho em runtime
  • Em 2026, Claude Opus 4.7, GPT-5.5, Gemini 3.1 e DeepSeek V4 ultrapassaram 80% no SWE-bench Verified
  • No Rust, o loop de feedback do compilador ajuda a autocorreção da IA, e Go e Swift também favorecem agentes com checagem de tipos rápida
  • Grandes migrações já estão em andamento, como o port do compilador do TypeScript para Go, um compilador C baseado em Rust, Rue e o port do motor JavaScript do Ladybird
  • Os ecossistemas de Python e JavaScript também dependem cada vez mais de ferramentas e wrappers em Rust, embora ainda existam exceções como Prisma, PyTorch e linguagens menores

Os novos critérios de escolha de linguagem com desenvolvimento assistido por IA

  • Por muito tempo, a escolha padrão para novos projetos foi Python ou TypeScript
    • porque os ecossistemas eram grandes, havia um amplo mercado de contratação e era possível criar demos rapidamente
    • Rust, Go e C++ podiam entregar desempenho 10 a 100 vezes maior, mas o tempo de aprendizado, o mercado menor de talentos e sistemas de build mais complicados pesavam como custo
    • por isso, muitas equipes lançavam primeiro a versão em Python e diziam que “melhorariam o desempenho depois”, mas na prática isso muitas vezes nunca acontecia
  • Com a IA começando a lidar com linguagens difíceis, esse equilíbrio está mudando
    • na escolha de linguagem, está ganhando mais peso a pergunta “a IA consegue escrever e corrigir bem isso?” do que “um humano consegue escrever isso rapidamente?”, além do desempenho em runtime

Linguagens difíceis estão ficando mais fáceis primeiro para a IA

  • Há 2 anos, o GPT-4 ainda inventava nomes de crates inexistentes ao escrever funções em Rust
  • Em abril de 2026, Claude Opus 4.7, GPT-5.5, Gemini 3.1 e DeepSeek V4 passaram de 80% no SWE-bench Verified em intervalos de poucas semanas
  • Os laboratórios estão otimizando explicitamente para trabalho de sistemas
    • bugs de concorrência
    • condições de corrida
    • falhas de arquitetura detectadas na fase de planejamento
  • CtrlAltDwayne atribui a força do Rust em 2026 não à segurança de memória ou ao desempenho, mas ao loop de feedback do compilador
    • a IA escreve Rust melhor do que C++
    • as mensagens de erro do compilador de Rust funcionam como sinais que ajudam a autocorreção em tempo real do modelo
    • o Rust opera como se fosse uma linguagem “acidentalmente projetada” com 10 anos de antecedência para o desenvolvimento assistido por IA
  • A mesma lógica também se aplica, em graus diferentes, a Go e Swift
    • sistemas de tipos fortes e ciclos rápidos de compilação e checagem oferecem aos agentes ciclos de iteração mais densos
    • linguagens de sistemas que eram difíceis para humanos podem se tornar alvos mais fáceis para agentes

Casos já lançados na prática

  • Port do compilador TypeScript da Microsoft para Go

    • A Microsoft lançou o TypeScript 7.0 beta e fez o port de uma base de código de 10 anos do TypeScript para Go
    • O TypeScript 7.0 beta é cerca de 10 vezes mais rápido que o 6.0
    • Segundo a avaliação de Anders Hejlsberg, Go oferece a maior parte dos ganhos de desempenho por apenas uma fração do custo de engenharia
    • Uma das maiores organizações de JS/TS do mundo mudou o cálculo de custo-benefício a ponto de escolher uma linguagem mais difícil e mais rápida para sua principal ferramenta
  • Um compilador C em Rust feito com 16 agentes Claude

    • O pesquisador da Anthropic Nicholas Carlini coordenou 16 agentes Claude em paralelo para escrever um compilador C de produção em Rust
    • A escala foi de 100 mil linhas, com boot do Linux 6.9 em x86, ARM e RISC-V
    • Ele compilou QEMU, FFmpeg, SQLite, PostgreSQL e Redis, e também rodou Doom
    • O custo total ficou em menos de US$ 20 mil ao longo de quase 2.000 sessões do Claude Code
    • Um compilador C escrito em Rust já foi algo em nível de tese de pós-graduação, mas agora deixou de ser um trabalho puramente excepcional
  • Rue, de Steve Klabnik

    • Steve Klabnik, coautor de The Rust Programming Language e veterano de Rust há 13 anos, criou com Claude uma nova linguagem de sistemas chamada Rue em 2 semanas
    • O resultado teve aproximadamente 70 mil linhas de Rust
    • Ele afirmou que esse trabalho de 2 semanas foi mais longe do que tentativas anteriores que haviam levado um ou dois meses
  • Port do motor JavaScript do Ladybird para Rust

    • Andreas Kling, fundador do navegador Ladybird e engenheiro de C++, usou Claude Code e Codex com centenas de pequenos prompts para fazer o port do motor JavaScript do Ladybird de C++ para Rust em 2 semanas
    • O resultado teve cerca de 25 mil linhas de Rust e atingiu equivalência byte a byte com o código original em C++
    • Combinando test262 e os testes do Ladybird, não houve regressões em mais de 65 mil testes
    • Segundo ele, fazer o mesmo manualmente teria levado vários meses

O enfraquecimento da lógica do “ecossistema”

  • O argumento mais forte de Python e JavaScript sempre foi mais o ecossistema do que a linguagem em si
    • havia bases como FastAPI, Django, PyTorch, React, Next.js e os 4 milhões de pacotes do npm
    • as equipes conseguiam lançar recursos em poucos dias porque o ecossistema já resolvia 90% do problema
  • Essa vantagem foi decisiva na última década, mas vem perdendo força nos últimos 2 anos
  • O próprio ecossistema de Python depende cada vez mais de componentes baseados em Rust
    • o núcleo inteiro de validação do pydantic é uma biblioteca em Rust
    • Polars, alternativa ao pandas, é escrito em Rust
    • Hugging Face tokenizers e orjson também são em Rust
    • segundo a pesquisa Python 2025 da JetBrains, o uso de Rust em extensões binárias de Python subiu de 27% para 33% em um ano
  • A base das ferramentas de desenvolvimento está indo na mesma direção
    • A Astral, fundada em 2022 por Charlie Marsh, lançou ruff, uv e ty, todos escritos em Rust, e os downloads mensais das três ferramentas cresceram de zero para centenas de milhões
    • Em 19 de março de 2026, a OpenAI adquiriu a Astral e avalia que o uv economiza cerca de 1 milhão de minutos por semana de tempo de computação no Codex
    • Há 10 semanas, a Anthropic adquiriu o Bun
    • O Bun registra 7 milhões de downloads mensais e 89 mil estrelas no GitHub, e foi chamado de “infraestrutura essencial para engenharia de software guiada por IA”
    • A VoidZero, de Evan You, lançou o Rolldown-Vite
    • Esse bundler em Rust reduziu um build de 2,5 minutos do GitLab para 40 segundos e cortou o uso de memória em 100 vezes
  • Lee Robinson, vice-presidente de produtos da Vercel, disse que “JS chegou ao limite de otimização”
  • Os pacotes reutilizados em Python e JavaScript estão se tornando, cada vez mais, wrappers sobre código escrito em linguagens que antes eram vistas como difíceis demais para lançar diretamente
    • se agora já é possível lançar diretamente nessas linguagens, o wrapper começa a parecer overhead

Quando portar fica mais fácil do que remendar

  • O ciclo virtuoso tradicional do ecossistema open source era centrado em patches
    • escolhia-se Python porque era fácil
    • encontrava-se um bug em uma dependência
    • corrigia-se e fazia-se upstream da mudança
    • o ecossistema ficava mais saudável
  • Os agentes estão deslocando a unidade de contribuição de patch para port
  • Em janeiro, o criador do Flask, Armin Ronacher, usou agentes para fazer o port da biblioteca Rust MiniJinja para Go
    • o tempo total de execução foi de 10 horas
    • dessas, 3 horas foram supervisionadas e 7 horas ocorreram sem intervenção
    • o tempo humano real foi de 45 minutos
    • o custo de API foi de US$ 60
  • Quando portar bibliotecas entre linguagens vira uma tarefa de 45 minutos, o argumento a favor de enviar correções para a biblioteca de outra pessoa perde força
    • deixa de ser “se dá para corrigir, por que não fazer fork?” e passa a ser “se dá para fazer fork, por que corrigir?”
  • Armin Ronacher vê o valor migrando do código para testes e documentação
    • uma boa suíte de testes pode valer mais do que o próprio código
  • O ciclo que criou PyPI e npm ainda funciona hoje, mas não está claro se continuará funcionando do mesmo jeito em 2028

Exceções que ainda permanecem

  • Nem toda mudança está indo em uma única direção
  • Em alguns casos, a escolha antiga ainda faz sentido
    • a Prisma removeu o query engine em Rust e migrou para um core em TypeScript/WASM
    • o tamanho do bundle caiu 85%
    • as consultas ficaram até 3,4 vezes mais rápidas
    • binários nativos em Rust são desvantajosos em runtimes serverless
  • O PyTorch ainda responde por cerca de 85% da pesquisa em deep learning
    • como os pesos dos modelos não dependem da linguagem usada para encapsulá-los, essa posição não deve mudar com facilidade
  • A IA não lida igualmente bem com todas as linguagens de sistemas
    • linguagens menores como Zig, Haskell e Gleam ainda não têm a mesma qualidade de geração por IA que Rust ou Go
    • os dados de treinamento determinam o alcance da ajuda que o modelo consegue oferecer
    • Rust e Go estão em posição favorável por terem presença suficiente no GitHub
    • Zig, Haskell e Gleam ainda estão do lado desfavorável dessa curva

Por que essa mudança pode continuar

  • A lógica defensiva tradicional de Python e TypeScript era, na prática, uma defesa da experiência do desenvolvedor
    • elas eram escolhidas porque minimizavam o atrito entre a ideia humana e o produto lançado
    • Rust não era a linguagem lenta no runtime, e sim a linguagem lenta quando era preciso colocar algo em produção às 2 da manhã
  • Agora os agentes estão começando a assumir as partes difíceis
    • o papel humano está mudando de “escrever código” para “projetar sistemas e revisar resultados”
    • nesse fluxo, a conveniência sintática do Python importa menos a cada branch
    • as vantagens de runtime das linguagens mais difíceis se acumulam todos os dias em que o serviço roda em produção
  • No texto de fevereiro A Language For Agents, Armin Ronacher argumenta que, com o custo de programar caindo rapidamente, a amplitude do ecossistema perde importância
  • Nos últimos 20 anos, a escolha de linguagens foi moldada pela restrição de que “humanos escrevem código, e humanos são lentos em linguagens de baixo nível”
    • essa restrição está começando a desaparecer
  • Na pesquisa de 2025 do Stack Overflow, Rust foi a linguagem mais admirada por 10 anos consecutivos, com 72%
    • Gleam ficou com 70%
    • Elixir com 66%
    • Zig com 64%
    • a preferência já existia; agora as ferramentas estão começando a alcançá-la

O próximo passo: linguagens fáceis para agentes

  • Karpathy disse em fevereiro que os LLMs estão mudando todo o terreno de restrições do software
    • ele vê sinais disso no movimento de ports de C para Rust
    • e acrescenta que até o próprio Rust talvez ainda não seja próximo do ideal como linguagem-alvo para LLMs
  • Os vencedores atuais podem ser apenas o ponto de partida, e a forma final ainda pode estar mais distante
  • @RealRichomie disse em 24 de abril que o futuro da programação deve caminhar não para a linguagem mais fácil para humanos, mas para a linguagem mais fácil para agentes
    • engenheiros lançaram um app para Mac sem saber nada de Rust ou Tauri
    • o resultado final tinha cerca de um décimo do tamanho da versão em Electron e desempenho de runtime superior
    • os humanos chegaram a esse resultado sem precisar aprender Rust
  • O próximo projeto não precisa necessariamente adotar Python como padrão

1 comentários

 
GN⁺ 3 시간 전
Comentários do Hacker News
  • Se você concorda com a ideia de ver ferramentas de programação com LLM como um compilador não determinístico, faz bastante sentido escolher uma linguagem com o melhor desempenho possível
    Claro, há muitas exceções, como bibliotecas ou vantagens nativas específicas de cada linguagem, mas depois de trabalhar com C++ no último mês, a única coisa que me deixou mais lento por causa da escolha da linguagem foi o tempo de compilação

  • Fiquei surpreso de não ver ninguém falando de dados de treinamento, mesmo lendo os primeiros comentários. Há código Python demais nesses dados
    Dá para usar IA até para escrever Brainfuck, mas não acho que o resultado será o mesmo que usando Python
    A pergunta seguinte é esta: agora que existe IA, por que se preocupar com a linguagem antes de realmente precisar?

    • Tive vontade de voltar a usar Perl depois de 5 anos, e precisava de um jeito bem simples de subir o proxy que eu estava fazendo em Go e escrever vários testes de integração
      Escrevi a maior parte com Claude Code, e o Claude lidou muito bem com Perl. Pedi para não tocar no CPAN e usar só a biblioteca padrão do Perl, e já havia cliente HTTP, TLS e JSON embutidos, então consegui substituir de forma muito estável e fácil algo que normalmente teria feito com script de shell
      Como Perl não mudou tanto e há muitos dados de treinamento, parece que o Claude usa Perl muito bem em situações em que você normalmente pensaria em script de shell
    • Surpreendentemente, LLMs são muito piores em raciocínio em Python do que em outras linguagens de programação comuns em tarefas de programação no estilo agente
      Os dados estão aqui: https://gertlabs.com/rankings?mode=agentic_coding
    • É só usar Go. LLMs já viram muito Go, escrevem bem em Go, compila quase instantaneamente, e você ainda tem todas as vantagens de uma linguagem compilada com tipos
      Eu criei uma base de código grande em Python com IA, e o LLM vivia adivinhando errado argumentos ou formatos de dicionário. Testes unitários ou ferramentas como pydantic ajudam, mas é melhor evitar esse tipo de erro de execução desde o início
    • Só dados de treinamento não explicam tudo. LLMs são realmente muito boas em traduzir de uma linguagem de programação para outra. Isso faz sentido, considerando que derivam de sistemas de tradução de texto
      Tive ótimos resultados até com linguagens que têm relativamente pouco código público. O obstáculo maior é que LLMs copiam os idiomatismos comuns da linguagem de destino e, em linguagens “corporativas” como Java ou C#, isso pode fazer explodir rapidamente a quantidade de código boilerplate inútil. Aí o resultado pode passar do tamanho útil da janela de contexto e a qualidade cair
    • Se você deixar a IA gerar código em loop aberto, os dados de treinamento podem importar bastante. Em Python, há uma boa chance de alguém já ter escrito algo parecido com o que você pediu
      Mas se o agente gerar o código, tentar compilar, ver mensagens de erro detalhadas e então refinar o código com base nessas mensagens, o resultado sai com qualidade mais alta. Os diagnósticos do rustc são muito bons e, mesmo que haja muito mais Python ou JavaScript/TypeScript, hoje já existe código Rust suficiente na internet
  • O motivo de eu usar Python é que já uso há mais de 10 anos, sei depurar, e consigo perceber pelo cheiro se o agente escreveu algo que pode virar um grande desastre em 10 segundos
    Em outras linguagens isso não acontece, e eu teria de reaprender muita coisa. Mesmo com a IA despejando código rapidamente, acabo preferindo Python, em que ainda sinto algum controle. Se fosse em Go ou Rust, pareceria menos programação assistida por IA e mais “vibe coding”, tipo tocar o produto inteiro no YOLO

    • Comecei a usar Rust na era dos agentes, e a experiência acumulada em outras linguagens continuou valendo e me ajudou a identificar code smell e arquitetura ruim
      Na parte de segurança de memória eu precisei aprender, porque não sabia o que era “certo”, mas o resto fluiu bem
      A sintaxe vai ficando em segundo plano, você passa a focar em coisas de nível mais alto e explora caminhos novos. Se tentar, pode se surpreender agradavelmente com o quanto da experiência é transferível
    • Aconteceu o mesmo comigo. Consigo sentir em poucas linhas quando o Python gerado por IA é besteira, então continuo usando Python na maioria dos projetos
  • Se a IA escreve por você, por que usar o cérebro?

    • Não é algo para ridicularizar. Os modelos estão muito melhores do que no mês passado e o custo por token caiu. LLMs são como compiladores para o cérebro
      /s
  • Por que parar em fazer a IA usar Rust? Se tudo é vibe coding e ninguém mais faz revisão de código, então é só mandar a LLM projetar uma linguagem ultracondensada e ultradensa feita apenas para minimizar o uso de tokens e maximizar a velocidade
    Há um /s no fim deste comentário, mas só parcialmente intencional

    • Por que parar em escrever código? Todos deveríamos criar chips ASIC customizados, e se não houver uma fábrica de chips, pelo menos usar FPGA
  • Um pouco fora do tema, mas eu realmente não entendo por que as pessoas ainda publicam no Medium
    A experiência de leitura é horrível. Um pop-up em tela cheia literalmente cobriu a frase que eu estava lendo, então nem consegui terminar este artigo
    Existe algum incentivo que eu não estou vendo?

    • Nada do que se lê no navegador pode, em última instância, oferecer a todo mundo a mesma experiência de leitura excelente e definitivamente superior. O próprio modelo da web moderna entra em conflito com isso
      Uma página HTML simples, sem CSS, é quase uma experiência de leitura perfeita. O problema é que quase ninguém publica assim. A web virou uma plataforma de publicação pela qual autores se importam e competem. Um protocolo de texto puro, sob controle do usuário, chega mais perto de “a melhor experiência de leitura para todos”. A web poderia ter sido assim, mas em sua maior parte não é
      Eu desisti de tentar ler textos longos no navegador. Se consigo extrair facilmente o texto puro relacionado, ou até texto estruturado, e ler no meu editor, por que eu leria no navegador? Posso controlar fonte, cores, navegação etc. O navegador é um meio de entrega, não um ambiente de leitura. Tratar como se fosse é hábito, não necessidade
      Faz muito tempo que não escrevo nada com mais de três palavras fora do editor. Corretor ortográfico, dicionário de sinônimos, consulta de etimologia, tradução, acesso a todas as minhas notas, integração com LLMs, tudo de que preciso já está lá. Se você tentar um dia, vai achar incrivelmente libertador. E aí também pode parar de ler textos longos no navegador

    • O Medium tem feito uma tentativa bem séria de pagar os autores. É um modelo diferente do Substack, mas esse é o motivo
      Eu vejo de forma parecida com paywalls de jornal. Não gosto, mas entendo por que existem

    • Meu palpite mais plausível é inércia. Algumas pessoas têm lealdade de marca muito forte e precisam se mover de acordo com o que os outros fazem e como fazem
      Na prática, não importa onde foi publicado, basta me dar a URL, mas nem todo mundo age assim

    • Parece a evolução mais recente das plataformas de blog amigáveis para autores. É mais fácil empacotar no formato de newsletter do que no WordPress, e também é mais fácil monetizar com um plano pago

    • Se você usar o Scribe, um frontend alternativo para o Medium, fica muito melhor:
      https://scribe.rawbit.ninja/@NMitchem/if-ai-writes-your-code...

      https://sr.ht/~edwardloveall/Scribe/
      https://libredirect.github.io/

  • Python tem um ecossistema muito mais maduro que o Rust, especialmente em IA/machine learning
    Encontrei um crate Rust que dizia implementar um certo algoritmo de machine learning, mas não funcionava direito. Ainda assim, consegui escrever uma implementação substituta com Claude
    Com IA, acho uma boa ideia impor correção no nível do sistema de tipos, então muitas vezes escolho linguagens como C# ou Rust em vez de Python. Ainda assim, para certas tarefas Python claramente é a ferramenta certa

    • Quase sempre escolho Rust. Recentemente, fiz um plugin para algo escrito em Go
      Eu poderia ter usado Rust, mas senti que, se o resultado der certo, para outras pessoas haverá mais valor em usar uma única toolchain, então Go parecia a escolha certa
      O motivo principal é que você precisa conseguir ler aquilo quando necessário. E há uma linguagem esperada pelo ecossistema de destino. O fato de algumas comunidades de ciência de dados escolherem R, MatLab, Julia, Python ou Mojo depende menos de qual é tecnicamente superior e mais do que os colegas usam
    • Acho que o único caso de uso é quando se está encapsulando bibliotecas C++ de baixo nível, como bibliotecas de machine learning. Essas realmente são muito difíceis de reproduzir
    • Existem alguns motivos para a imposição do sistema de tipos ser boa ao trabalhar com IA
      Meu palpite é que linguagens tipadas costumam ter language servers mais rápidos e melhores, então conseguem modificar código de forma mais eficiente com uso de ferramentas
      Mesmo quando uma pessoa precisa intervir para investigar ou mexer no código, tipos fortes ajudam bastante a se orientar no meio de código espaguete
    • Certamente há o que dizer sobre suporte de bibliotecas em IA/machine learning. Mesmo assim, hoje em dia acabo indo bastante para Rust/TypeScript em trabalho de backend. Isso apesar de eu gostar muito de Django
    • Se você vai sair do ecossistema Python e deixar a IA gerenciar dependências ou fazer polyfills, talvez seja melhor ir até OCaml/F# em vez de Rust
      Aí você ganha as vantagens de coleta de lixo e tipagem forte
  • Por enquanto, é exatamente a mesma razão pela qual as pessoas usam Python ao programar manualmente. Mais gente conhece Python do que linguagens como Zig, então humanos conseguem ler e modificar o código com mais facilidade
    Entendo o ponto do texto, mas ainda não acho que chegamos a esse estágio

    • Um mundo onde a automação escreve em linguagens que os humanos não entendem me faz pensar numa fábrica automatizada chinesa totalmente escura. Os humanos se perdem e se confundem, mas os robôs ficam à vontade ali dentro
  • “Um app lançado numa linguagem que ninguém do time conhece” soa ótimo. Vamos olhar para isso em retrospecto num futuro não tão distante

    • Isso já acontecia antes da IA. Há 10 anos, alguém escreveu uma ferramenta central numa linguagem aleatória, e o resto do time teve de dar manutenção. E, ainda assim, deram um jeito
    • Provavelmente é a única coisa no mundo que pode ser mais assustadora do que o app Electron que aquilo estaria substituindo
    • É só trocar de emprego em 12 a 18 meses. Aí vira problema de outra pessoa
  • Não é verdade dizer que “o pesquisador da Anthropic Nicholas Carlini coordenou 16 agentes Claude em paralelo para escrever em Rust um compilador C de produção”
    Esse compilador gera código muito inferior ao gcc/clang, então na prática é inútil