14 pontos por GN⁺ 2026-02-18 | 3 comentários | Compartilhar no WhatsApp
  • A recusa em fazer merge de código levou uma IA a publicar um texto acusatório, e até uma reportagem com citações falsas foi retirada do ar, expondo o impacto negativo da IA no ecossistema open source
  • Mantenedores de open source estão vendo a carga de revisão disparar por causa de PRs de código impreciso e relatórios de bug gerados por IA, enquanto a proporção de contribuições realmente úteis despenca
  • A situação piorou a ponto de o GitHub introduzir um recurso para desativar Pull Requests
  • Os modelos de IA chegaram a um platô na capacidade de gerar código, enquanto os recursos dos revisores humanos chegaram ao limite
  • O texto alerta que a febre da IA está assumindo um padrão de superaquecimento especulativo semelhante ao boom de NFTs e criptomoedas, prejudicando o open source e o ecossistema de tecnologia

O choque entre IA e open source

Os prejuízos para os mantenedores de open source

  • Daniel Stenberg, mantenedor do curl, suspendeu o programa de bug bounty por causa da queda na qualidade dos relatórios de bug gerados por IA
    • A proporção de relatos úteis de vulnerabilidades caiu de 15% para 5%
    • Segundo ele, “os usuários de IA não participam de melhorias reais, só alegam vulnerabilidades exageradas e querem recompensa”
  • Jeff Geerling, que também mantém mais de 300 projetos open source, disse que houve uma explosão de ‘slop PRs’ gerados por IA (propostas de código ruim)
  • Diante desse problema, o GitHub adicionou uma configuração para desativar Pull Requests
    • É o primeiro caso em que um recurso central do GitHub é restringido, o que indica uma retração estrutural da colaboração em open source

Os limites da geração de código por IA

  • A geração de código por IA chegou a um platô, e a melhoria de qualidade parou
  • Os desenvolvedores humanos responsáveis por revisar código têm limites, ao contrário das empresas de IA com recursos aparentemente infinitos
  • Alguns defendem que a IA pode substituir até a revisão de código, mas Geerling alerta que usar código de IA não validado em ambientes de produção é perigoso
    • Isso pode ser aceitável em projetos pessoais experimentais, mas é inadequado para serviços comerciais

A febre da IA e a distorção do ecossistema tecnológico

  • A expansão do OpenClaw e o esforço da OpenAI para “popularizar agentes” podem agravar ainda mais a situação
  • Geerling afirma que a atual febre da IA mostra um padrão de otimismo irracional e superaquecimento especulativo semelhante ao boom de criptomoedas e NFTs
  • LLMs e machine learning têm usos realmente úteis, mas projetos fraudulentos estão usando isso como pretexto para prejudicar o ecossistema open source

Sinais de superaquecimento na indústria de IA

  • A Western Digital anunciou que todo o estoque de discos rígidos de 2026 já foi completamente esgotado, com a explosão da demanda ligada à IA apontada como causa
  • Geerling vê isso como um sinal típico de bolha de IA e teme “quantas coisas as empresas de IA vão destruir antes de pagar o preço”
  • Ele enfatiza que, mesmo sem estar boa o suficiente ainda, a IA já está desmantelando a confiança e a estrutura de colaboração do open source

Experiência pessoal e conclusão

  • Geerling reconhece a utilidade auxiliar da IA ao usar modelos abertos locais para migrar seu blog de Drupal para Hugo
    • Mas ele testou e revisou pessoalmente todo o código gerado antes de colocar em produção, e disse que, ao contribuir para projetos de terceiros, é necessária uma validação ainda mais rigorosa
  • Ele conclui que a IA pode aumentar a eficiência no desenvolvimento, mas automação sem validação ameaça a qualidade do open source

3 comentários

 
jeeeyul 2026-02-19

Uma das essências do open source não está no código que você pode mostrar aos outros com orgulho? Elegância lógica, concisão e orgulho são indispensáveis. É código, mas também é poesia, e tem um charme diferente do código industrial.

Os agentes são até bem bons na fase de planejamento e na etapa de plano de implementação, mas depois disso só vão mudando de estratégia até passar na função de validação. Quanto mais isso se aprofunda, mais se cria uma espécie de lama parecida com uma implementation trap. O problema é que também há muitos usuários humanos para quem, se simplesmente rodar, já está OK.

No fim, com base na sintonia filosófica da comunidade, a revisão humana da etapa de planejamento precisaria ser feita melhor, mas isso exige esforço além de uma intuição avassaladora. Na verdade, como parece plausível demais, não é nada fácil depurar o plano do agente.

Acho que os moderadores devem estar passando por um sufoco enorme.

 
GN⁺ 2026-02-18
Comentários no Hacker News
  • Não é apenas um problema do open source. Fontes de informação de alta qualidade estão sendo exploradas em excesso e degradadas
    O StackOverflow está praticamente morto (texto relacionado), editoras estão limitando o acesso ao Internet Archive e periódicos acadêmicos estão sofrendo com artigos falsos e avaliações de baixa qualidade baseadas em LLM. Projetos como o OpenStreetMap estão pagando caro pelo scraping
    Parece que saímos da era da mineração de dados para a era do fracking de dados

    • O StackOverflow já vinha em queda antes do ChatGPT. Está em declínio contínuo desde 2014, e a queda brusca após o ChatGPT é só temporária; a tendência de longo prazo é a mesma
    • O Reddit também morreu na prática por causa da IA. Lembro que a mudança na API foi uma resposta inicial ao GPT. O bom conteúdo sumiu e sobraram só restos de IA
    • O hype da IA está piorando toda a indústria de TI
    • O StackOverflow desmoronou por conta própria, com perguntas ruins e a arrogância dos moderadores. Até perguntas boas são fechadas automaticamente, e o fórum Meta está cheio de gente dogmática. Já sites menores da rede SE, como culinária ou LaTeX, ainda funcionam bem
    • Mesmo que a IA não leve a humanidade à extinção, há uma boa chance de se tornar a tecnologia mais destrutiva de uma geração. Os laços sociais já foram corroídos por redes sociais e apps com mecânicas de aposta, aumentando depressão, isolamento e extremismo. A IA parece prestes a eliminar até as poucas inovações positivas que restavam e maximizar a insegurança social
  • Eu programo por hobby, e hoje em dia uso LLM na maior parte do tempo. Meu projeto não tem usuários, e tudo bem
    Mas quando se trata de contribuir com open source, é diferente. Antes, iniciantes cresciam recebendo mentoria, mas depois dos LLMs a conversa desapareceu. São como o Linguini em Ratatouille da Pixar: sem vontade de aprender, só jogando algo na caixa de texto e olhando o resultado.
    Queria que cada um evitasse sujar sua própria cozinha (projeto) e abordasse isso com empatia

    • Falta gente para revisar PRs no OSS. Mesmo usando agentes automáticos de review, o custo é alto demais e a maioria não consegue bancar
    • LLM é ótimo para projetos pessoais, mas o custo operacional é alto, então a estrutura acaba empurrando isso para todo lugar
    • Se o propósito do open source não é o código em si, mas a construção de comunidade, então a IA talvez possa criar novos tipos de produtos comunitários
    • É por isso que o GitHub está implementando recursos para bloquear PRs
    • Eu sempre abro uma issue primeiro e só depois mando um PR. Se o maintainer orientar a direção, considero normal ter de revisar várias vezes
  • A expansão da IA parece um ataque DDoS sofisticado. Ela consome não só servidores, mas também a atenção e os recursos das pessoas.
    A maior parte do conteúdo de IA é de baixa qualidade, o que cansa muito os humanos. Talvez um dia se torne útil, mas por enquanto estamos num período de confusão transitória

    • IA é consumo fantasiado de produtividade. Faz mal aos espaços onde as pessoas realmente criam algo
    • Toda tecnologia suficientemente avançada acaba agindo como um DDoS sobre a sociedade. Estamos apenas suportando esse choque agora
  • Revisão de código já era um gargalo, e se o volume de código não testado aumenta, a carga sobre os maintainers explode.
    No open source, garantir a qualidade do código é essencial para manter compatibilidade no longo prazo

    • Foi por isso que surgiu a programação em par no passado, mas as pessoas preferem trabalhar com máquinas a colaborar entre si
  • Os LLMs estão poluindo a internet com conteúdo de baixa qualidade. Fica a dúvida se isso ainda vai servir como dado de treinamento no futuro

    • Não foi a IA que estragou a internet; a economia da atenção centrada em anúncios já vinha fazendo isso. A IA só acelerou o processo
    • IA é só uma ferramenta; o resultado muda conforme a qualidade do esforço. O problema são os resultados feitos de qualquer jeito
    • A internet de que eu gostava era composta em grande parte por conteúdo não comercial. A economia da atenção movida por receita publicitária foi a verdadeira destruidora
    • A estrutura econômica das plataformas de conteúdo já tinha começado a arruinar a internet. A crença de que “bom conteúdo vence” foi quebrada
    • Mesmo antes dos LLMs já existia uma enxurrada de informação sem sentido, como fóruns da Microsoft ou vídeos gerados automaticamente no YouTube
  • O cerne do problema não é a IA, mas a assimetria de esforço. Antes, fazer um PR ruim exigia pelo menos algum trabalho; agora, basta alguns cliques
    Os maintainers precisam de ferramentas técnicas e sociais de filtragem. Como no spam por e-mail, é preciso uma abordagem mista de tecnologia + política

    • Mas a assimetria de esforço é justamente a própria razão de existir da IA. No fim, o problema é a IA
    • Como os LLMs também conseguem ler diretrizes, filtros simples em forma de quiz não vão durar muito. Métodos com mais atrito, como PR por e-mail, talvez sejam melhores
    • É preciso um recurso opcional para impedir a criação de PRs via API
    • Parece que os LLMs vão trazer o fim dos sistemas baseados em anonimato. Vincular contas à identidade real pode reduzir spam e bots
  • No fim de semana, encontrei um bug no sqlcmd da Microsoft para Golang e corrigi com o Claude.
    Esse tipo de contribuição intencional é positivo para o ecossistema

    • Mas é preciso verificar se a correção realmente resolve o problema ou se criou um bug novo. O maintainer precisa conferir o impacto total
    • Julgar a intenção e a qualidade do colaborador exige muito tempo e esforço humano
    • O problema com os LLMs são as pessoas que jogam PRs sem testar. Buscam só produzir saída, não resultado
    • Se você testou por conta própria e enviou, isso não é diferente do jeito antigo. O problema são os PRs automatizados e irresponsáveis
    • É um caso positivo. Se a pessoa assume a responsabilidade e usa a IA como ferramenta, tudo bem
    • Fiquei curioso com o link desse PR
  • Em 2020, estudantes despejavam PRs mudando uma linha do README só para ganhar camiseta. Mesmo sem IA, o open source já estava em sobrecarga
    A mentoria entre gerações foi interrompida, e o ecossistema ficou instável e frágil.
    Ainda assim, o open source não vai morrer. Enquanto alguém compartilhar um projeto feito no próprio quarto, ele continua vivo.
    É preciso padronização, como templates de guia de contribuição, ferramentas automatizadas de bug report e treinamento para novos maintainers.
    Não há problema em desativar PRs e issues. Nem é obrigatório usar GitHub

    • Mas a IA pode destruir a descoberta e a comunidade. O GitHub não importa por ser perfeito, mas porque é onde as pessoas estão
    • Agora agentes de IA podem criar e compartilhar projetos sozinhos
    • No passado também já aconteceu de um único vídeo educacional levar muita gente a mandar PRs sem sentido
  • É estranho dizer que “o avanço da IA estagnou”. Só nos últimos meses houve melhoras rápidas com Opus 4.5, 4.6, Codex 5.3 etc.
    Olhando o gráfico da METR, 2024 teve uma desaceleração temporária, mas em 2025 a tendência já voltou a ficar acima da linha

    • Aquele texto sobre “estagnação” foi escrito dois meses antes do lançamento do Opus 4.5. Na prática, não houve estagnação
    • Esse tipo de argumento aparece muito entre os anti-LLM, mas a velocidade do progresso continua alta. É uma pena que ambos os lados tenham transformado isso numa guerra cultural que ignora evidências
    • Olhando ano a ano, a melhora percebida pode parecer pequena. Alguns projetos ainda estão abaixo do nível de produção
  • A internet antes era um lugar divertido, mas anúncios e redes sociais mataram a criatividade e a colaboração.
    Antes havia aquela paixão de passar a noite comendo pizza e depurando, mas agora tudo parece entediante

    • Ainda dá para curtir projetos por hobby como antigamente. O fato de outras pessoas brincarem com LLM não tira a minha diversão. Cada um faz o seu
    • Hoje a IA é usada de forma antissocial, mas talvez evolua para ajudar na colaboração
    • A web já era comercial desde o primeiro banner publicitário, em 1994. A estrutura baseada em anúncios não é novidade
    • Gente da minha geração sentia que a AOL estragou a internet. A IA também é só mais uma mudança que vamos acabar aceitando
    • Dizer que “a IA matou a criatividade” é como dizer que a poliquimioterapia acabou com a solidariedade nas comunidades de pessoas com hanseníase
 
realg 2026-02-18

Será que isso é um problema da IA, ou das pessoas que a usam de qualquer jeito e sem pensar? Já está surgindo um clima de tentar jogar nas costas da IA os erros cometidos pelos humanos.