- A recusa em fazer merge de código levou uma IA a publicar um texto acusatório, e até uma reportagem com citações falsas foi retirada do ar, expondo o impacto negativo da IA no ecossistema open source
- Mantenedores de open source estão vendo a carga de revisão disparar por causa de PRs de código impreciso e relatórios de bug gerados por IA, enquanto a proporção de contribuições realmente úteis despenca
- A situação piorou a ponto de o GitHub introduzir um recurso para desativar Pull Requests
- Os modelos de IA chegaram a um platô na capacidade de gerar código, enquanto os recursos dos revisores humanos chegaram ao limite
- O texto alerta que a febre da IA está assumindo um padrão de superaquecimento especulativo semelhante ao boom de NFTs e criptomoedas, prejudicando o open source e o ecossistema de tecnologia
O choque entre IA e open source
Os prejuízos para os mantenedores de open source
- Daniel Stenberg, mantenedor do curl, suspendeu o programa de bug bounty por causa da queda na qualidade dos relatórios de bug gerados por IA
- A proporção de relatos úteis de vulnerabilidades caiu de 15% para 5%
- Segundo ele, “os usuários de IA não participam de melhorias reais, só alegam vulnerabilidades exageradas e querem recompensa”
- Jeff Geerling, que também mantém mais de 300 projetos open source, disse que houve uma explosão de ‘slop PRs’ gerados por IA (propostas de código ruim)
- Diante desse problema, o GitHub adicionou uma configuração para desativar Pull Requests
- É o primeiro caso em que um recurso central do GitHub é restringido, o que indica uma retração estrutural da colaboração em open source
Os limites da geração de código por IA
- A geração de código por IA chegou a um platô, e a melhoria de qualidade parou
- Os desenvolvedores humanos responsáveis por revisar código têm limites, ao contrário das empresas de IA com recursos aparentemente infinitos
- Alguns defendem que a IA pode substituir até a revisão de código, mas Geerling alerta que usar código de IA não validado em ambientes de produção é perigoso
- Isso pode ser aceitável em projetos pessoais experimentais, mas é inadequado para serviços comerciais
A febre da IA e a distorção do ecossistema tecnológico
- A expansão do OpenClaw e o esforço da OpenAI para “popularizar agentes” podem agravar ainda mais a situação
- Geerling afirma que a atual febre da IA mostra um padrão de otimismo irracional e superaquecimento especulativo semelhante ao boom de criptomoedas e NFTs
- LLMs e machine learning têm usos realmente úteis, mas projetos fraudulentos estão usando isso como pretexto para prejudicar o ecossistema open source
Sinais de superaquecimento na indústria de IA
- A Western Digital anunciou que todo o estoque de discos rígidos de 2026 já foi completamente esgotado, com a explosão da demanda ligada à IA apontada como causa
- Geerling vê isso como um sinal típico de bolha de IA e teme “quantas coisas as empresas de IA vão destruir antes de pagar o preço”
- Ele enfatiza que, mesmo sem estar boa o suficiente ainda, a IA já está desmantelando a confiança e a estrutura de colaboração do open source
Experiência pessoal e conclusão
- Geerling reconhece a utilidade auxiliar da IA ao usar modelos abertos locais para migrar seu blog de Drupal para Hugo
- Mas ele testou e revisou pessoalmente todo o código gerado antes de colocar em produção, e disse que, ao contribuir para projetos de terceiros, é necessária uma validação ainda mais rigorosa
- Ele conclui que a IA pode aumentar a eficiência no desenvolvimento, mas automação sem validação ameaça a qualidade do open source
3 comentários
Uma das essências do open source não está no código que você pode mostrar aos outros com orgulho? Elegância lógica, concisão e orgulho são indispensáveis. É código, mas também é poesia, e tem um charme diferente do código industrial.
Os agentes são até bem bons na fase de planejamento e na etapa de plano de implementação, mas depois disso só vão mudando de estratégia até passar na função de validação. Quanto mais isso se aprofunda, mais se cria uma espécie de lama parecida com uma implementation trap. O problema é que também há muitos usuários humanos para quem, se simplesmente rodar, já está OK.
No fim, com base na sintonia filosófica da comunidade, a revisão humana da etapa de planejamento precisaria ser feita melhor, mas isso exige esforço além de uma intuição avassaladora. Na verdade, como parece plausível demais, não é nada fácil depurar o plano do agente.
Acho que os moderadores devem estar passando por um sufoco enorme.
Comentários no Hacker News
Não é apenas um problema do open source. Fontes de informação de alta qualidade estão sendo exploradas em excesso e degradadas
O StackOverflow está praticamente morto (texto relacionado), editoras estão limitando o acesso ao Internet Archive e periódicos acadêmicos estão sofrendo com artigos falsos e avaliações de baixa qualidade baseadas em LLM. Projetos como o OpenStreetMap estão pagando caro pelo scraping
Parece que saímos da era da mineração de dados para a era do fracking de dados
Eu programo por hobby, e hoje em dia uso LLM na maior parte do tempo. Meu projeto não tem usuários, e tudo bem
Mas quando se trata de contribuir com open source, é diferente. Antes, iniciantes cresciam recebendo mentoria, mas depois dos LLMs a conversa desapareceu. São como o Linguini em Ratatouille da Pixar: sem vontade de aprender, só jogando algo na caixa de texto e olhando o resultado.
Queria que cada um evitasse sujar sua própria cozinha (projeto) e abordasse isso com empatia
A expansão da IA parece um ataque DDoS sofisticado. Ela consome não só servidores, mas também a atenção e os recursos das pessoas.
A maior parte do conteúdo de IA é de baixa qualidade, o que cansa muito os humanos. Talvez um dia se torne útil, mas por enquanto estamos num período de confusão transitória
Revisão de código já era um gargalo, e se o volume de código não testado aumenta, a carga sobre os maintainers explode.
No open source, garantir a qualidade do código é essencial para manter compatibilidade no longo prazo
Os LLMs estão poluindo a internet com conteúdo de baixa qualidade. Fica a dúvida se isso ainda vai servir como dado de treinamento no futuro
O cerne do problema não é a IA, mas a assimetria de esforço. Antes, fazer um PR ruim exigia pelo menos algum trabalho; agora, basta alguns cliques
Os maintainers precisam de ferramentas técnicas e sociais de filtragem. Como no spam por e-mail, é preciso uma abordagem mista de tecnologia + política
No fim de semana, encontrei um bug no
sqlcmdda Microsoft para Golang e corrigi com o Claude.Esse tipo de contribuição intencional é positivo para o ecossistema
Em 2020, estudantes despejavam PRs mudando uma linha do README só para ganhar camiseta. Mesmo sem IA, o open source já estava em sobrecarga
A mentoria entre gerações foi interrompida, e o ecossistema ficou instável e frágil.
Ainda assim, o open source não vai morrer. Enquanto alguém compartilhar um projeto feito no próprio quarto, ele continua vivo.
É preciso padronização, como templates de guia de contribuição, ferramentas automatizadas de bug report e treinamento para novos maintainers.
Não há problema em desativar PRs e issues. Nem é obrigatório usar GitHub
É estranho dizer que “o avanço da IA estagnou”. Só nos últimos meses houve melhoras rápidas com Opus 4.5, 4.6, Codex 5.3 etc.
Olhando o gráfico da METR, 2024 teve uma desaceleração temporária, mas em 2025 a tendência já voltou a ficar acima da linha
A internet antes era um lugar divertido, mas anúncios e redes sociais mataram a criatividade e a colaboração.
Antes havia aquela paixão de passar a noite comendo pizza e depurando, mas agora tudo parece entediante
Será que isso é um problema da IA, ou das pessoas que a usam de qualquer jeito e sem pensar? Já está surgindo um clima de tentar jogar nas costas da IA os erros cometidos pelos humanos.