2 pontos por GN⁺ 2026-02-17 | 2 comentários | Compartilhar no WhatsApp
  • Foi confirmado que as citações em questão foram atribuídas incorretamente a uma fonte, embora tenham sido geradas por IA e não tenham sido ditas pelo suposto autor original
  • O veículo classificou o caso como uma falha grave nos padrões editoriais e afirmou que todas as citações diretas devem refletir o que a fonte realmente disse
  • Após revisão interna, nenhum outro caso semelhante foi encontrado, e o episódio foi identificado como um caso isolado
  • A Ars Technica reafirmou sua política de que conteúdo gerado por IA não é permitido, exceto para fins de demonstração claramente identificados, e pediu desculpas aos leitores e à pessoa citada erroneamente

Retração do artigo e visão geral do caso

  • A Ars Technica informou na tarde de sexta-feira que havia publicado um artigo contendo citações falsas geradas por ferramenta de IA e retirou o conteúdo
    • As citações eram falas que a pessoa real nunca disse, mas que foram atribuídas incorretamente à fonte apesar de terem sido geradas por IA
    • O veículo definiu isso como uma “violação grave dos padrões
  • A editoria afirmou que “citações diretas devem necessariamente refletir o que a fonte realmente disse”

Revisão interna e política

  • A Ars Technica há muito tempo aborda os riscos da dependência excessiva de ferramentas de IA, e essa preocupação também está refletida em sua política interna
  • Explicou que a publicação das citações neste caso ocorreu de uma forma incompatível com essa política
  • Após revisar trabalhos recentes, informou que nenhum problema adicional foi encontrado e que, por enquanto, tudo indica tratar-se de um incidente isolado

Regras sobre materiais gerados por IA

  • A Ars Technica proíbe, em princípio, a publicação de material gerado por IA
    • No entanto, há exceção apenas quando ele estiver claramente identificado e for usado para fins de demonstração
    • Neste caso, essa regra não foi cumprida

Pedido de desculpas e medidas posteriores

  • O veículo pediu desculpas aos leitores por essa falha e também se desculpou diretamente com Scott Shambaugh, vítima das citações falsas
  • A editoria afirmou que vai reforçar os padrões editoriais a partir deste episódio e prometeu evitar recorrências

Conclusão

  • A Ars Technica reafirmou, com este caso, a importância de verificar conteúdos gerados por IA e garantir transparência
  • Os procedimentos internos estão sendo reforçados para restaurar a confiança editorial e manter padrões éticos de reportagem

2 comentários

 
GN⁺ 2026-02-17
Comentários no Hacker News
  • Como ex-jornalista de tecnologia, ao fazer experimentos de reportagem com ferramentas não verificadas, é essencial analisar os resultados minuciosamente em um ambiente controlado
    Um editor sênior deve necessariamente estar envolvido, e é melhor começar por matérias menos controversas
    Além disso, se o repórter estava doente e não conseguia escrever, mas ainda assim se forçou por causa da cultura da empresa ou da política de licença médica, a Ars precisa refletir internamente sobre isso

    • No começo achei que não havia essa indicação na matéria, mas depois vi as redes sociais do autor e entendi. Concordo
    • Em alguns veículos em decadência que conheço, os editores foram os primeiros a ser demitidos. Depois disso a qualidade caiu rapidamente, e o ciclo vicioso se acelerou. Hoje em muitos casos nem há mais editor sênior
    • Lembro que antigamente repórteres juniores ficavam responsáveis pelo fact-checking de citações, datas, nomes etc.
    • Trabalhando de casa com febre alta, esse tipo de erro pode acontecer facilmente. Na verdade, o problema foi a organização aceitar o texto de alguém doente desse jeito
    • No fundo, acho que o problema é uma cultura em que as pessoas esperam jornalismo de graça. Não gostam de assinatura nem de anúncios, e recorrem a links de arquivo para burlar isso, o que impõe uma carga excessiva aos jornalistas. A cultura da Ars também é um problema, mas existe um pano de fundo social maior
  • Benj Edwards reconheceu a responsabilidade por meio de um pedido de desculpas publicado no Bluesky
    Ele explicou parte das circunstâncias, mas disse que a responsabilidade é inteiramente dele. Resta ver se isso foi um caso isolado

    • O ponto central do problema é que ele estava trabalhando de cama, com febre. Isso faz pensar sobre a cultura de trabalho da Ars Technica
    • O pedido de desculpas pareceu começar tentando gerar empatia e amenizar o erro. Foi difícil ver como um pedido de desculpas realmente sincero
    • Sou crítico da Ars, mas não acho ruim que jornalistas experimentem ferramentas de IA. Só deveriam ter sido muito mais cuidadosos.
      Como também foi dito neste comentário relacionado, mesmo para um veículo cético em relação à IA, é necessário vivenciar diretamente as limitações dessas ferramentas
    • Leitores curiosos provavelmente vão vasculhar matérias antigas para ver se houve casos parecidos
    • Esse caso não é um problema de um jornalista específico, mas parte de um debate social mais amplo sobre os erros recorrentes provocados pelo uso de ferramentas de IA
  • Coletânea de threads recentes relacionadas no HN

  • Achei estranho alguns assinantes elogiarem a Ars de forma excessiva por ter identificado o erro e feito a retratação com honestidade.
    Na verdade, isso é ética jornalística básica, e neste caso a questão só veio à tona porque a própria pessoa envolvida apontou o problema nos comentários

    • Ainda assim, vejo como positivo que tenham corrigido e prometido evitar recorrência. Muitas organizações nem isso fazem
    • Acho melhor do que outros veículos o fato de terem afirmado claramente: “isso nunca mais vai acontecer”. Em alguns lugares a IA chega a gerar a matéria inteira
  • É bom que a Ars e o jornalista tenham assumido a responsabilidade, mas a formulação da nota de retratação deixou a desejar
    Em vez de dizer que “não atendia aos nossos padrões”, deveria ter afirmado explicitamente que publicou citações falsas geradas por IA.
    Assim, quem já tinha lido a matéria antes poderia corrigir a informação equivocada

  • Verifiquei quais trechos haviam sido fabricados. As citações do GitHub no começo eram reais, mas todas as citações da seção final eram falsas
    Pareciam ter sido retiradas do blog de Shambaugh, mas na realidade eram frases que não existiam
    O original pode ser conferido neste link de arquivo

  • Achei estranho não haver link para a matéria retratada
    A discussão relacionada está acontecendo no fórum da Ars
    O texto original pode ser visto no Web Archive

    • A ausência do link dá a impressão de uma tentativa deliberada de apagar o caso
    • Mas recolocar o link de uma matéria retratada também pode esvaziar o sentido da retratação
    • O artigo traz Benj Edwards e Kyle Orland como autores
  • Fico curioso para saber que medidas de prevenção de recorrência serão adotadas daqui para frente.
    Também é questionável por que o uso de LLM não foi divulgado, e se há casos parecidos em outras matérias
    Neste caso a fraude foi descoberta porque as citações eram falsas, mas, se não fossem, talvez ninguém tivesse percebido

    • No fim, a resposta parece ter sido algo como “foi um erro e vamos tomar mais cuidado daqui em diante”
    • A posição oficial é que “a matéria não foi escrita por IA; apenas o resumo das citações foi deixado a cargo da IA”. Mesmo assim, essa decisão foi extremamente imprudente
  • Considerando que a Ars vinha alertando há muito tempo sobre os riscos da dependência de IA, esse incidente é especialmente chocante
    A fabricação de citações violou a política interna, e recuperar a confiança não será fácil
    Felizmente, como a pessoa citada havia bloqueado o acesso de LLM, a alucinação (hallucination) da IA acabou sendo exposta