- A biblioteca open source cURL encerrou seu programa de bug bounty para conter o aumento de relatórios de bugs sem sentido gerados por IA
- O mantenedor Daniel Stenberg explicou que a maior parte dos relatórios feitos por IA é "pura falsidade", e que a verificação consome muito tempo
- O cURL vai parar de pagar recompensas a partir do fim de janeiro, e até agora já pagou US$ 101.020 por um total de 87 relatórios
- O pesquisador de segurança Joshua Rogers vem usando ferramentas de IA para enviar relatórios realmente válidos, mas avaliou a decisão como uma "medida muito sensata"
- Segundo ele, a motivação real não é o dinheiro, mas sim reputação e realização técnica, e outros projetos também deveriam considerar medidas semelhantes
Decisão do cURL de encerrar o bug bounty
- A biblioteca de código aberto cURL deixou de oferecer recompensas financeiras por relatórios de bugs
- O objetivo é conter a explosão de relatórios falsos gerados por IA (AI slop)
- O mantenedor Daniel Stenberg afirmou: “O AI slop e os relatórios imprecisos continuam aumentando, e se não barrarmos essa enchente, vamos afundar”
- O cURL encerrou o pagamento de bounties no fim de janeiro
- Ele explicou: “Estamos desperdiçando tempo demais com descobertas que na prática não existem, são exageradas ou foram mal compreendidas”
O problema e o impacto dos relatórios gerados por IA
- Recentemente, o cURL teve um grande aumento na carga de trabalho por causa de relatórios de bugs gerados automaticamente por IA
- A maioria desses relatórios acabou se mostrando sem sentido ou incorreta
- O processo de separar esses casos é demorado e pesa muito sobre os mantenedores
- Stenberg já havia tratado publicamente do tema em 2025, no texto "Death by a thousand slops"
Casos positivos de relatórios auxiliados por IA
- Nem todo relatório gerado com IA é sem valor
- Stenberg mencionou que mais de 100 relatórios assistidos por IA resultaram em correções reais no código
- Até agora, o cURL pagou US$ 101.020 em bug bounties por um total de 87 relatórios de bugs
- Sem o bounty, alguns desses relatórios talvez não tivessem sido descobertos (sem análise adicional)
A posição do pesquisador de segurança Joshua Rogers
- Joshua Rogers é um pesquisador que já enviou vários relatórios de bugs válidos para projetos open source com ajuda de ferramentas de IA
- Ele revisa a análise da IA e a complementa manualmente antes de enviar
- Rogers avaliou a decisão do cURL como uma "excelente medida que deveria ter sido adotada há muito tempo"
- Ele também comentou que “é até estranho que esse programa tenha durado tanto tempo”
- Segundo ele, “se o bug bounty desaparecer, alguma motivação vai diminuir, mas relatórios importantes ainda continuarão sendo enviados”
Desequilíbrio entre recompensa e motivação
- Rogers enfatizou que a reputação (fame) é a verdadeira motivação, e que a recompensa financeira é secundária
- O valor máximo do bounty do cURL é de US$ 10 mil, o que não representa tanto para especialistas capazes de encontrar vulnerabilidades graves
- Ainda assim, ele também apontou um desequilíbrio econômico
- A mesma recompensa pode ter grande importância para pesquisadores de regiões de baixa renda
- Ele explicou que “um valor que na Suécia mal paga um almoço pode ser uma quantia enorme em outras regiões”
Desafio comum no ecossistema open source
- Segundo a reportagem, outros projetos open source também estão sofrendo com a enxurrada de relatórios gerados por IA
- A decisão do cURL pode abrir uma nova discussão sobre controle de qualidade na era da IA e formas de gestão de comunidades (sem explicação adicional)
2 comentários
A industrialização da geração de exploits para hacking com base em LLM está se aproximando
Junto com isso, parece que está chegando o momento em que será inevitável aplicar LLM em várias áreas.
Nem que seja para impedir hackers que usam LLM, vai ser preciso encarregar os próprios LLMs de verificar a segurança.
Comentários do Hacker News
Parece que daria para barrar esse tipo de problema rapidamente com uma taxa de participação reembolsável caso o bug se prove realmente importante
Lembro de ter reportado uma falha num sistema de login bancário que permitia trocar senha+PIN por só PIN, mas fecharam como “comportamento intencional”
Aprendi que instituições muito reguladas, como hospitais ou bancos, muitas vezes focam mais em “estar em conformidade” do que em segurança real
Se quem organiza o bug bounty estiver agindo de boa-fé, esse tipo de barreira de entrada ou penalidade talvez possa filtrar participantes mal-intencionados
Muitas vezes o revisor entende errado o conteúdo, ou as regras são ambíguas
Se cobrarem taxa de participação, esse risco aumenta ainda mais
Quando eu estava do lado da operação, já havia relatórios ruins demais; agora, com IA, deve estar ainda pior
E, do ponto de vista de quem submete, é difícil garantir uma avaliação justa, além da alta chance de o relatório ser duplicado
Uma vez, um banco da UE só permitia login com assinatura eletrônica compatível com SHA-1, um algoritmo já abandonado havia 10 anos
O software do provedor de identidade certificado pelo governo simplesmente travava se um YubiKey estivesse conectado
Era um dispositivo compatível com o padrão, mas o desenvolvedor tinha feito suposições fora do padrão
Reportei o bug, mas só recebi a resposta de que “não era problema deles”
Mas, se para reportar você precisa pagar e não há certeza de reembolso nem de recompensa, vender para outro lugar pode acabar parecendo mais atraente
O Daniel, do cURL, já analisou essa ideia várias vezes, mas concluiu que no fim ela não era viável
Dispositivos certificados e inseguros usam todos os recursos do app, mas o GrapheneOS, que é o SO mais seguro, tem funções limitadas porque “não tem certificação”
No fim, o problema não é segurança, e sim o sistema de certificação
Parece que o open source é quem mais apanha da IA
Código aberto foi usado para treinar modelos, e agora esses modelos inundam projetos open source com spam
Além disso, a IA implementa recursos pagos, enfraquece modelos de negócio baseados em open source e talvez acabe substituindo o próprio código aberto
Ela destrói o incentivo para contribuir, manter, aprender, colaborar e construir negócios
Está até desmontando a forma tradicional de emprego baseada em trabalhar com código fechado
No fim, parece que três empresas americanas disputam quem vai revender nosso trabalho passado no formato de assinatura
Isso já existia antes, mas agora a escala é completamente diferente
Antes, os estudantes tinham de encontrar projetos e contribuir por conta própria, e isso já servia como filtro natural
Se a IA fizer isso por eles, esse filtro desaparece
Quando o mundo entra em competição, é natural que modelos baseados em open core enfraqueçam
Também entraram livros didáticos, aulas e documentação oficial
Uma vez pedi ao Claude para adicionar recursos de GUI enquanto eu tentava recuperar dados de um dispositivo Android antigo, e funcionou bem
O código ficou diferente da direção original do projeto, então não subi de volta para o GitHub
Do ponto de vista de um hacker white hat, a recompensa de bug bounty não é tão grande, mas participar ainda faz sentido como uma escolha moral
Já no caso de uma vulnerabilidade explorável, sempre existe a opção de vender para quem faz malware e paga mais
Como não existe confiança entre as partes, seriam necessários escrow em cripto, lavagem de dinheiro e outros processos complicados
Sem aprovação governamental, esse tipo de transação ainda traz risco jurídico
No fim, acho difícil esse mercado funcionar de verdade
A Hackerone tem um sistema de reputação para hackers
Seria bom se usassem isso para operar mais programas privados, só por convite, com hackers verificados; não sei por que não fazem isso
No fim, a barreira de entrada para o ecossistema pode ficar alta demais
Além da recompensa financeira, também existem motivações como prestígio ou conseguir um CVE
O Stenberg já falou várias vezes no blog sobre casos de vulnerabilidades superestimadas, e algumas pareciam exageradas de propósito por busca de fama
Esse tipo de motivação é difícil de tratar só com desenho de incentivos
Há um vídeo que mostra o pano de fundo desse problema → link do YouTube
Microfone gigante, gestos excessivos, expressões como “awesome” e “insane” dominando toda a conversa... isso me esgota
A afirmação de que “uma recompensa equivalente ao preço de um almoço na Suécia já é muito para gente de países de baixa renda” soa como um exagero
Um almoço no centro de Estocolmo custa algo como 200 coroas; alguém com essa qualificação técnica dificilmente acharia isso “muito dinheiro”
Mesmo com exagero, não é uma diferença que dá para ignorar
O bug bounty da nossa empresa, na prática, é só um endereço de e-mail de segurança, mas chegam mais de 100 spams por dia
A maioria são relatórios falsos de pentest gerados por IA, cheios de vulnerabilidades inventadas e informações erradas
Teve até um vendedor tentando marcar uma reunião de 3 horas, enquanto o relatório citava um bug de IIS que não existia e um endereço IP impossível
Na hora, eu realmente fiquei sem palavras
Antigamente encontrar bugs era lento e difícil, então fazia sentido ter incentivos; agora, o mais difícil passou a ser separar os bugs reais
Existe até a piada de que caçadores de bugs com IA “acham 3 bugs de verdade em cada 100”
Vulnerabilidades em uma base de código como a do cURL ou exploits binários ainda estão além da IA
A lista de relatórios lixo gerados por IA que o cURL recebeu está pública → link para o gist
Isso foi em dezembro de 2023; deve ter sido exaustivo mesmo
Ainda assim, o texto de LLM parece mais convincente
Foi curioso ver o Bard citado como LLM
Impressiona que o cURL tenha aguentado isso e continuado respondendo por tanto tempo