- Foi confirmado que as citações em questão foram atribuídas incorretamente a uma fonte, embora tenham sido geradas por IA e não tenham sido ditas pelo suposto autor original
- O veículo classificou o caso como uma falha grave nos padrões editoriais e afirmou que todas as citações diretas devem refletir o que a fonte realmente disse
- Após revisão interna, nenhum outro caso semelhante foi encontrado, e o episódio foi identificado como um caso isolado
- A Ars Technica reafirmou sua política de que conteúdo gerado por IA não é permitido, exceto para fins de demonstração claramente identificados, e pediu desculpas aos leitores e à pessoa citada erroneamente
Retração do artigo e visão geral do caso
- A Ars Technica informou na tarde de sexta-feira que havia publicado um artigo contendo citações falsas geradas por ferramenta de IA e retirou o conteúdo
- As citações eram falas que a pessoa real nunca disse, mas que foram atribuídas incorretamente à fonte apesar de terem sido geradas por IA
- O veículo definiu isso como uma “violação grave dos padrões”
- A editoria afirmou que “citações diretas devem necessariamente refletir o que a fonte realmente disse”
Revisão interna e política
- A Ars Technica há muito tempo aborda os riscos da dependência excessiva de ferramentas de IA, e essa preocupação também está refletida em sua política interna
- Explicou que a publicação das citações neste caso ocorreu de uma forma incompatível com essa política
- Após revisar trabalhos recentes, informou que nenhum problema adicional foi encontrado e que, por enquanto, tudo indica tratar-se de um incidente isolado
Regras sobre materiais gerados por IA
- A Ars Technica proíbe, em princípio, a publicação de material gerado por IA
- No entanto, há exceção apenas quando ele estiver claramente identificado e for usado para fins de demonstração
- Neste caso, essa regra não foi cumprida
Pedido de desculpas e medidas posteriores
- O veículo pediu desculpas aos leitores por essa falha e também se desculpou diretamente com Scott Shambaugh, vítima das citações falsas
- A editoria afirmou que vai reforçar os padrões editoriais a partir deste episódio e prometeu evitar recorrências
Conclusão
- A Ars Technica reafirmou, com este caso, a importância de verificar conteúdos gerados por IA e garantir transparência
- Os procedimentos internos estão sendo reforçados para restaurar a confiança editorial e manter padrões éticos de reportagem
2 comentários
Um agente de IA publicou um texto me difamando
Um agente de IA escreveu um texto me difamando — depois disso, ainda mais coisas aconteceram
Comentários no Hacker News
Como ex-jornalista de tecnologia, ao fazer experimentos de reportagem com ferramentas não verificadas, é essencial analisar os resultados minuciosamente em um ambiente controlado
Um editor sênior deve necessariamente estar envolvido, e é melhor começar por matérias menos controversas
Além disso, se o repórter estava doente e não conseguia escrever, mas ainda assim se forçou por causa da cultura da empresa ou da política de licença médica, a Ars precisa refletir internamente sobre isso
Benj Edwards reconheceu a responsabilidade por meio de um pedido de desculpas publicado no Bluesky
Ele explicou parte das circunstâncias, mas disse que a responsabilidade é inteiramente dele. Resta ver se isso foi um caso isolado
Como também foi dito neste comentário relacionado, mesmo para um veículo cético em relação à IA, é necessário vivenciar diretamente as limitações dessas ferramentas
Coletânea de threads recentes relacionadas no HN
Achei estranho alguns assinantes elogiarem a Ars de forma excessiva por ter identificado o erro e feito a retratação com honestidade.
Na verdade, isso é ética jornalística básica, e neste caso a questão só veio à tona porque a própria pessoa envolvida apontou o problema nos comentários
É bom que a Ars e o jornalista tenham assumido a responsabilidade, mas a formulação da nota de retratação deixou a desejar
Em vez de dizer que “não atendia aos nossos padrões”, deveria ter afirmado explicitamente que publicou citações falsas geradas por IA.
Assim, quem já tinha lido a matéria antes poderia corrigir a informação equivocada
Verifiquei quais trechos haviam sido fabricados. As citações do GitHub no começo eram reais, mas todas as citações da seção final eram falsas
Pareciam ter sido retiradas do blog de Shambaugh, mas na realidade eram frases que não existiam
O original pode ser conferido neste link de arquivo
Achei estranho não haver link para a matéria retratada
A discussão relacionada está acontecendo no fórum da Ars
O texto original pode ser visto no Web Archive
Fico curioso para saber que medidas de prevenção de recorrência serão adotadas daqui para frente.
Também é questionável por que o uso de LLM não foi divulgado, e se há casos parecidos em outras matérias
Neste caso a fraude foi descoberta porque as citações eram falsas, mas, se não fossem, talvez ninguém tivesse percebido
Considerando que a Ars vinha alertando há muito tempo sobre os riscos da dependência de IA, esse incidente é especialmente chocante
A fabricação de citações violou a política interna, e recuperar a confiança não será fácil
Felizmente, como a pessoa citada havia bloqueado o acesso de LLM, a alucinação (hallucination) da IA acabou sendo exposta