Se a IA escreve o código, por que usar Python?
(medium.com/@NMitchem)- Com o desenvolvimento assistido por IA, o critério de escolha de linguagem está mudando da velocidade de escrita humana para a capacidade de correção pela IA e o desempenho em runtime
- Em 2026, Claude Opus 4.7, GPT-5.5, Gemini 3.1 e DeepSeek V4 ultrapassaram 80% no SWE-bench Verified
- No Rust, o loop de feedback do compilador ajuda a autocorreção da IA, e Go e Swift também favorecem agentes com checagem de tipos rápida
- Grandes migrações já estão em andamento, como o port do compilador do TypeScript para Go, um compilador C baseado em Rust, Rue e o port do motor JavaScript do Ladybird
- Os ecossistemas de Python e JavaScript também dependem cada vez mais de ferramentas e wrappers em Rust, embora ainda existam exceções como Prisma, PyTorch e linguagens menores
Os novos critérios de escolha de linguagem com desenvolvimento assistido por IA
- Por muito tempo, a escolha padrão para novos projetos foi Python ou TypeScript
- porque os ecossistemas eram grandes, havia um amplo mercado de contratação e era possível criar demos rapidamente
- Rust, Go e C++ podiam entregar desempenho 10 a 100 vezes maior, mas o tempo de aprendizado, o mercado menor de talentos e sistemas de build mais complicados pesavam como custo
- por isso, muitas equipes lançavam primeiro a versão em Python e diziam que “melhorariam o desempenho depois”, mas na prática isso muitas vezes nunca acontecia
- Com a IA começando a lidar com linguagens difíceis, esse equilíbrio está mudando
- na escolha de linguagem, está ganhando mais peso a pergunta “a IA consegue escrever e corrigir bem isso?” do que “um humano consegue escrever isso rapidamente?”, além do desempenho em runtime
Linguagens difíceis estão ficando mais fáceis primeiro para a IA
- Há 2 anos, o GPT-4 ainda inventava nomes de crates inexistentes ao escrever funções em Rust
- Em abril de 2026, Claude Opus 4.7, GPT-5.5, Gemini 3.1 e DeepSeek V4 passaram de 80% no SWE-bench Verified em intervalos de poucas semanas
- Os laboratórios estão otimizando explicitamente para trabalho de sistemas
- bugs de concorrência
- condições de corrida
- falhas de arquitetura detectadas na fase de planejamento
- CtrlAltDwayne atribui a força do Rust em 2026 não à segurança de memória ou ao desempenho, mas ao loop de feedback do compilador
- a IA escreve Rust melhor do que C++
- as mensagens de erro do compilador de Rust funcionam como sinais que ajudam a autocorreção em tempo real do modelo
- o Rust opera como se fosse uma linguagem “acidentalmente projetada” com 10 anos de antecedência para o desenvolvimento assistido por IA
- A mesma lógica também se aplica, em graus diferentes, a Go e Swift
- sistemas de tipos fortes e ciclos rápidos de compilação e checagem oferecem aos agentes ciclos de iteração mais densos
- linguagens de sistemas que eram difíceis para humanos podem se tornar alvos mais fáceis para agentes
Casos já lançados na prática
-
Port do compilador TypeScript da Microsoft para Go
- A Microsoft lançou o TypeScript 7.0 beta e fez o port de uma base de código de 10 anos do TypeScript para Go
- O TypeScript 7.0 beta é cerca de 10 vezes mais rápido que o 6.0
- Segundo a avaliação de Anders Hejlsberg, Go oferece a maior parte dos ganhos de desempenho por apenas uma fração do custo de engenharia
- Uma das maiores organizações de JS/TS do mundo mudou o cálculo de custo-benefício a ponto de escolher uma linguagem mais difícil e mais rápida para sua principal ferramenta
-
Um compilador C em Rust feito com 16 agentes Claude
- O pesquisador da Anthropic Nicholas Carlini coordenou 16 agentes Claude em paralelo para escrever um compilador C de produção em Rust
- A escala foi de 100 mil linhas, com boot do Linux 6.9 em x86, ARM e RISC-V
- Ele compilou QEMU, FFmpeg, SQLite, PostgreSQL e Redis, e também rodou Doom
- O custo total ficou em menos de US$ 20 mil ao longo de quase 2.000 sessões do Claude Code
- Um compilador C escrito em Rust já foi algo em nível de tese de pós-graduação, mas agora deixou de ser um trabalho puramente excepcional
-
Rue, de Steve Klabnik
- Steve Klabnik, coautor de The Rust Programming Language e veterano de Rust há 13 anos, criou com Claude uma nova linguagem de sistemas chamada Rue em 2 semanas
- O resultado teve aproximadamente 70 mil linhas de Rust
- Ele afirmou que esse trabalho de 2 semanas foi mais longe do que tentativas anteriores que haviam levado um ou dois meses
-
Port do motor JavaScript do Ladybird para Rust
- Andreas Kling, fundador do navegador Ladybird e engenheiro de C++, usou Claude Code e Codex com centenas de pequenos prompts para fazer o port do motor JavaScript do Ladybird de C++ para Rust em 2 semanas
- O resultado teve cerca de 25 mil linhas de Rust e atingiu equivalência byte a byte com o código original em C++
- Combinando test262 e os testes do Ladybird, não houve regressões em mais de 65 mil testes
- Segundo ele, fazer o mesmo manualmente teria levado vários meses
O enfraquecimento da lógica do “ecossistema”
- O argumento mais forte de Python e JavaScript sempre foi mais o ecossistema do que a linguagem em si
- havia bases como FastAPI, Django, PyTorch, React, Next.js e os 4 milhões de pacotes do npm
- as equipes conseguiam lançar recursos em poucos dias porque o ecossistema já resolvia 90% do problema
- Essa vantagem foi decisiva na última década, mas vem perdendo força nos últimos 2 anos
- O próprio ecossistema de Python depende cada vez mais de componentes baseados em Rust
- o núcleo inteiro de validação do
pydanticé uma biblioteca em Rust - Polars, alternativa ao pandas, é escrito em Rust
- Hugging Face tokenizers e orjson também são em Rust
- segundo a pesquisa Python 2025 da JetBrains, o uso de Rust em extensões binárias de Python subiu de 27% para 33% em um ano
- o núcleo inteiro de validação do
- A base das ferramentas de desenvolvimento está indo na mesma direção
- A Astral, fundada em 2022 por Charlie Marsh, lançou ruff, uv e ty, todos escritos em Rust, e os downloads mensais das três ferramentas cresceram de zero para centenas de milhões
- Em 19 de março de 2026, a OpenAI adquiriu a Astral e avalia que o uv economiza cerca de 1 milhão de minutos por semana de tempo de computação no Codex
- Há 10 semanas, a Anthropic adquiriu o Bun
- O Bun registra 7 milhões de downloads mensais e 89 mil estrelas no GitHub, e foi chamado de “infraestrutura essencial para engenharia de software guiada por IA”
- A VoidZero, de Evan You, lançou o Rolldown-Vite
- Esse bundler em Rust reduziu um build de 2,5 minutos do GitLab para 40 segundos e cortou o uso de memória em 100 vezes
- Lee Robinson, vice-presidente de produtos da Vercel, disse que “JS chegou ao limite de otimização”
- Os pacotes reutilizados em Python e JavaScript estão se tornando, cada vez mais, wrappers sobre código escrito em linguagens que antes eram vistas como difíceis demais para lançar diretamente
- se agora já é possível lançar diretamente nessas linguagens, o wrapper começa a parecer overhead
Quando portar fica mais fácil do que remendar
- O ciclo virtuoso tradicional do ecossistema open source era centrado em patches
- escolhia-se Python porque era fácil
- encontrava-se um bug em uma dependência
- corrigia-se e fazia-se upstream da mudança
- o ecossistema ficava mais saudável
- Os agentes estão deslocando a unidade de contribuição de patch para port
- Em janeiro, o criador do Flask, Armin Ronacher, usou agentes para fazer o port da biblioteca Rust MiniJinja para Go
- o tempo total de execução foi de 10 horas
- dessas, 3 horas foram supervisionadas e 7 horas ocorreram sem intervenção
- o tempo humano real foi de 45 minutos
- o custo de API foi de US$ 60
- Quando portar bibliotecas entre linguagens vira uma tarefa de 45 minutos, o argumento a favor de enviar correções para a biblioteca de outra pessoa perde força
- deixa de ser “se dá para corrigir, por que não fazer fork?” e passa a ser “se dá para fazer fork, por que corrigir?”
- Armin Ronacher vê o valor migrando do código para testes e documentação
- uma boa suíte de testes pode valer mais do que o próprio código
- O ciclo que criou PyPI e npm ainda funciona hoje, mas não está claro se continuará funcionando do mesmo jeito em 2028
Exceções que ainda permanecem
- Nem toda mudança está indo em uma única direção
- Em alguns casos, a escolha antiga ainda faz sentido
- a Prisma removeu o query engine em Rust e migrou para um core em TypeScript/WASM
- o tamanho do bundle caiu 85%
- as consultas ficaram até 3,4 vezes mais rápidas
- binários nativos em Rust são desvantajosos em runtimes serverless
- O PyTorch ainda responde por cerca de 85% da pesquisa em deep learning
- como os pesos dos modelos não dependem da linguagem usada para encapsulá-los, essa posição não deve mudar com facilidade
- A IA não lida igualmente bem com todas as linguagens de sistemas
- linguagens menores como Zig, Haskell e Gleam ainda não têm a mesma qualidade de geração por IA que Rust ou Go
- os dados de treinamento determinam o alcance da ajuda que o modelo consegue oferecer
- Rust e Go estão em posição favorável por terem presença suficiente no GitHub
- Zig, Haskell e Gleam ainda estão do lado desfavorável dessa curva
Por que essa mudança pode continuar
- A lógica defensiva tradicional de Python e TypeScript era, na prática, uma defesa da experiência do desenvolvedor
- elas eram escolhidas porque minimizavam o atrito entre a ideia humana e o produto lançado
- Rust não era a linguagem lenta no runtime, e sim a linguagem lenta quando era preciso colocar algo em produção às 2 da manhã
- Agora os agentes estão começando a assumir as partes difíceis
- o papel humano está mudando de “escrever código” para “projetar sistemas e revisar resultados”
- nesse fluxo, a conveniência sintática do Python importa menos a cada branch
- as vantagens de runtime das linguagens mais difíceis se acumulam todos os dias em que o serviço roda em produção
- No texto de fevereiro A Language For Agents, Armin Ronacher argumenta que, com o custo de programar caindo rapidamente, a amplitude do ecossistema perde importância
- Nos últimos 20 anos, a escolha de linguagens foi moldada pela restrição de que “humanos escrevem código, e humanos são lentos em linguagens de baixo nível”
- essa restrição está começando a desaparecer
- Na pesquisa de 2025 do Stack Overflow, Rust foi a linguagem mais admirada por 10 anos consecutivos, com 72%
- Gleam ficou com 70%
- Elixir com 66%
- Zig com 64%
- a preferência já existia; agora as ferramentas estão começando a alcançá-la
O próximo passo: linguagens fáceis para agentes
- Karpathy disse em fevereiro que os LLMs estão mudando todo o terreno de restrições do software
- ele vê sinais disso no movimento de ports de C para Rust
- e acrescenta que até o próprio Rust talvez ainda não seja próximo do ideal como linguagem-alvo para LLMs
- Os vencedores atuais podem ser apenas o ponto de partida, e a forma final ainda pode estar mais distante
- @RealRichomie disse em 24 de abril que o futuro da programação deve caminhar não para a linguagem mais fácil para humanos, mas para a linguagem mais fácil para agentes
- engenheiros lançaram um app para Mac sem saber nada de Rust ou Tauri
- o resultado final tinha cerca de um décimo do tamanho da versão em Electron e desempenho de runtime superior
- os humanos chegaram a esse resultado sem precisar aprender Rust
- O próximo projeto não precisa necessariamente adotar Python como padrão
1 comentários
Comentários do Hacker News
Se você concorda com a ideia de ver ferramentas de programação com LLM como um compilador não determinístico, faz bastante sentido escolher uma linguagem com o melhor desempenho possível
Claro, há muitas exceções, como bibliotecas ou vantagens nativas específicas de cada linguagem, mas depois de trabalhar com C++ no último mês, a única coisa que me deixou mais lento por causa da escolha da linguagem foi o tempo de compilação
Fiquei surpreso de não ver ninguém falando de dados de treinamento, mesmo lendo os primeiros comentários. Há código Python demais nesses dados
Dá para usar IA até para escrever Brainfuck, mas não acho que o resultado será o mesmo que usando Python
A pergunta seguinte é esta: agora que existe IA, por que se preocupar com a linguagem antes de realmente precisar?
Escrevi a maior parte com Claude Code, e o Claude lidou muito bem com Perl. Pedi para não tocar no CPAN e usar só a biblioteca padrão do Perl, e já havia cliente HTTP, TLS e JSON embutidos, então consegui substituir de forma muito estável e fácil algo que normalmente teria feito com script de shell
Como Perl não mudou tanto e há muitos dados de treinamento, parece que o Claude usa Perl muito bem em situações em que você normalmente pensaria em script de shell
Os dados estão aqui: https://gertlabs.com/rankings?mode=agentic_coding
Eu criei uma base de código grande em Python com IA, e o LLM vivia adivinhando errado argumentos ou formatos de dicionário. Testes unitários ou ferramentas como pydantic ajudam, mas é melhor evitar esse tipo de erro de execução desde o início
Tive ótimos resultados até com linguagens que têm relativamente pouco código público. O obstáculo maior é que LLMs copiam os idiomatismos comuns da linguagem de destino e, em linguagens “corporativas” como Java ou C#, isso pode fazer explodir rapidamente a quantidade de código boilerplate inútil. Aí o resultado pode passar do tamanho útil da janela de contexto e a qualidade cair
Mas se o agente gerar o código, tentar compilar, ver mensagens de erro detalhadas e então refinar o código com base nessas mensagens, o resultado sai com qualidade mais alta. Os diagnósticos do rustc são muito bons e, mesmo que haja muito mais Python ou JavaScript/TypeScript, hoje já existe código Rust suficiente na internet
O motivo de eu usar Python é que já uso há mais de 10 anos, sei depurar, e consigo perceber pelo cheiro se o agente escreveu algo que pode virar um grande desastre em 10 segundos
Em outras linguagens isso não acontece, e eu teria de reaprender muita coisa. Mesmo com a IA despejando código rapidamente, acabo preferindo Python, em que ainda sinto algum controle. Se fosse em Go ou Rust, pareceria menos programação assistida por IA e mais “vibe coding”, tipo tocar o produto inteiro no YOLO
Na parte de segurança de memória eu precisei aprender, porque não sabia o que era “certo”, mas o resto fluiu bem
A sintaxe vai ficando em segundo plano, você passa a focar em coisas de nível mais alto e explora caminhos novos. Se tentar, pode se surpreender agradavelmente com o quanto da experiência é transferível
Se a IA escreve por você, por que usar o cérebro?
/s
Por que parar em fazer a IA usar Rust? Se tudo é vibe coding e ninguém mais faz revisão de código, então é só mandar a LLM projetar uma linguagem ultracondensada e ultradensa feita apenas para minimizar o uso de tokens e maximizar a velocidade
Há um /s no fim deste comentário, mas só parcialmente intencional
Um pouco fora do tema, mas eu realmente não entendo por que as pessoas ainda publicam no Medium
A experiência de leitura é horrível. Um pop-up em tela cheia literalmente cobriu a frase que eu estava lendo, então nem consegui terminar este artigo
Existe algum incentivo que eu não estou vendo?
Nada do que se lê no navegador pode, em última instância, oferecer a todo mundo a mesma experiência de leitura excelente e definitivamente superior. O próprio modelo da web moderna entra em conflito com isso
Uma página HTML simples, sem CSS, é quase uma experiência de leitura perfeita. O problema é que quase ninguém publica assim. A web virou uma plataforma de publicação pela qual autores se importam e competem. Um protocolo de texto puro, sob controle do usuário, chega mais perto de “a melhor experiência de leitura para todos”. A web poderia ter sido assim, mas em sua maior parte não é
Eu desisti de tentar ler textos longos no navegador. Se consigo extrair facilmente o texto puro relacionado, ou até texto estruturado, e ler no meu editor, por que eu leria no navegador? Posso controlar fonte, cores, navegação etc. O navegador é um meio de entrega, não um ambiente de leitura. Tratar como se fosse é hábito, não necessidade
Faz muito tempo que não escrevo nada com mais de três palavras fora do editor. Corretor ortográfico, dicionário de sinônimos, consulta de etimologia, tradução, acesso a todas as minhas notas, integração com LLMs, tudo de que preciso já está lá. Se você tentar um dia, vai achar incrivelmente libertador. E aí também pode parar de ler textos longos no navegador
O Medium tem feito uma tentativa bem séria de pagar os autores. É um modelo diferente do Substack, mas esse é o motivo
Eu vejo de forma parecida com paywalls de jornal. Não gosto, mas entendo por que existem
Meu palpite mais plausível é inércia. Algumas pessoas têm lealdade de marca muito forte e precisam se mover de acordo com o que os outros fazem e como fazem
Na prática, não importa onde foi publicado, basta me dar a URL, mas nem todo mundo age assim
Parece a evolução mais recente das plataformas de blog amigáveis para autores. É mais fácil empacotar no formato de newsletter do que no WordPress, e também é mais fácil monetizar com um plano pago
Se você usar o Scribe, um frontend alternativo para o Medium, fica muito melhor:
https://scribe.rawbit.ninja/@NMitchem/if-ai-writes-your-code...
https://sr.ht/~edwardloveall/Scribe/
https://libredirect.github.io/
Python tem um ecossistema muito mais maduro que o Rust, especialmente em IA/machine learning
Encontrei um crate Rust que dizia implementar um certo algoritmo de machine learning, mas não funcionava direito. Ainda assim, consegui escrever uma implementação substituta com Claude
Com IA, acho uma boa ideia impor correção no nível do sistema de tipos, então muitas vezes escolho linguagens como C# ou Rust em vez de Python. Ainda assim, para certas tarefas Python claramente é a ferramenta certa
Eu poderia ter usado Rust, mas senti que, se o resultado der certo, para outras pessoas haverá mais valor em usar uma única toolchain, então Go parecia a escolha certa
O motivo principal é que você precisa conseguir ler aquilo quando necessário. E há uma linguagem esperada pelo ecossistema de destino. O fato de algumas comunidades de ciência de dados escolherem R, MatLab, Julia, Python ou Mojo depende menos de qual é tecnicamente superior e mais do que os colegas usam
Meu palpite é que linguagens tipadas costumam ter language servers mais rápidos e melhores, então conseguem modificar código de forma mais eficiente com uso de ferramentas
Mesmo quando uma pessoa precisa intervir para investigar ou mexer no código, tipos fortes ajudam bastante a se orientar no meio de código espaguete
Aí você ganha as vantagens de coleta de lixo e tipagem forte
Por enquanto, é exatamente a mesma razão pela qual as pessoas usam Python ao programar manualmente. Mais gente conhece Python do que linguagens como Zig, então humanos conseguem ler e modificar o código com mais facilidade
Entendo o ponto do texto, mas ainda não acho que chegamos a esse estágio
“Um app lançado numa linguagem que ninguém do time conhece” soa ótimo. Vamos olhar para isso em retrospecto num futuro não tão distante
Não é verdade dizer que “o pesquisador da Anthropic Nicholas Carlini coordenou 16 agentes Claude em paralelo para escrever em Rust um compilador C de produção”
Esse compilador gera código muito inferior ao gcc/clang, então na prática é inútil