- O projeto curl adotou uma política de bloqueio imediato para denunciantes que usam IA, devido ao abuso de envios de relatos de segurança baseados em IA
- A partir de agora, todos os denunciantes de segurança precisam responder claramente à pergunta "Você usou IA?", e, em caso de uso de IA, receberão perguntas adicionais de verificação
- O projeto enfatiza que relatos escritos por IA são, em sua maioria, "slop de IA" sem valor, e que não houve sequer um único caso real de relato válido
- Foi considerado que os relatos com abuso de IA via HackerOne passaram de todos os limites, sendo tratados como uma ação de interferência no nível de um ataque DDoS
- O exemplo que deu origem ao problema é https://hackerone.com/reports/3125832, e esse relatório foi o gatilho para a mudança na política de resposta
3 comentários
Penso mais ou menos o mesmo.
Você é um robô?
Comentário do Hacker News
Eu processo relatórios de um programa de bug bounty de um milhão de dólares
Para quem não quer clicar no link, <a href="https://hackerone.com/reports/3125832" rel="nofollow">https://hackerone.com/reports/3125832</a> é o exemplo mais recente de um relatório incorreto sobre o curl
Se você quisesse plantar vulnerabilidades em grandes projetos open source, um jeito fácil seria usar IA para fazer DDOS nos relatórios de vulnerabilidade deles, dificultando encontrar os relatórios reais
Ler o commit que foi a gota d'água explica bem o problema: <a href="https://hackerone.com/reports/3125832" rel="nofollow">https://hackerone.com/reports/3125832</a>
Dá para saber sem nem clicar no relatório que tudo ali é alucinação
O evilginx aumentou a gravidade
A maioria dos LLMs, quando você pede para encontrar vulnerabilidades de segurança em código, inventa coisas completamente fictícias
O que é decepcionante nas interações com pessoas que usam muita IA é que elas frequentemente começam com "perguntei ao ChatGPT e..."
A solução é simples
Em contraponto, nós temos CVEs, e a diferença é que um dos cofundadores era um pesquisador agressivo de kernel