2 pontos por GN⁺ 2026-03-04 | 1 comentários | Compartilhar no WhatsApp
  • O repórter Benj Edwards foi demitido após a polêmica envolvendo uma reportagem com citações falsas geradas por ferramenta de IA
  • A reportagem em questão tratava de um caso em que uma IA publicou um texto criticando o engenheiro humano Scott Shambaugh, mas depois foi retirada após se descobrir que continha citações falsas
  • Edwards explicou que, ao usar uma ferramenta de IA baseada no Claude Code, ocorreu um erro, e ao tentar identificar o problema com o ChatGPT, acabou incluindo citações incorretas
  • A Ars Technica classificou o caso como uma “violação grave dos padrões”, concluiu sua revisão interna e pretende divulgar no futuro diretrizes para uso de IA
  • O caso mostra que, no momento atual em que o uso de IA no jornalismo e os padrões éticos entram em choque, até especialistas em IA podem ficar expostos a erros humanos e limitações técnicas

Visão geral do caso de demissão na Ars Technica

  • A Ars Technica encerrou o vínculo empregatício do repórter Benj Edwards após a polêmica envolvendo uma reportagem com citações falsas geradas por IA
    • O veículo pertence à Condé Nast
  • A reportagem problemática foi publicada em 13 de fevereiro e cobria um caso relacionado à IA: um agente de IA publicou um texto criticando o engenheiro humano Scott Shambaugh
  • Depois que Shambaugh apontou que a matéria incluía citações que ele nunca disse, o editor-chefe Ken Fisher publicou um pedido de desculpas e retirou a reportagem

Pedido de desculpas do editor-chefe e medidas internas

  • No pedido de desculpas, Fisher reconheceu que a reportagem continha “citações falsas geradas por ferramenta de IA” e descreveu isso como uma “violação grave dos padrões
  • Ele acrescentou que o caso parecia ser um “incidente isolado”, e depois a Ars Technica anunciou que concluiu sua revisão interna
  • O diretor criativo Aurich Lawson encerrou o tópico de comentários dos leitores e afirmou que “as medidas internas apropriadas foram concluídas
    • Também mencionou que pretende divulgar futuramente um guia para leitores sobre como a IA será e não será usada

Explicação de Benj Edwards

  • Em uma postagem no Bluesky, Edwards afirmou que “incluiu por engano citações falsas durante o uso de uma ferramenta de IA” e assumiu total responsabilidade
    • Ele explicou que estava de licença médica na época e que o erro ocorreu enquanto tentava organizar citações usando uma ferramenta experimental de IA baseada no Claude Code
    • Depois, ao usar o ChatGPT para identificar a causa do problema, acabou incluindo na reportagem frases parafraseadas em vez de falas reais
  • Ele enfatizou que “a reportagem foi escrita por um ser humano, e não houve reportagem gerada por IA”, e esclareceu que o coautor Kyle Orland não teve relação com o erro

Reação dos leitores e mudanças posteriores

  • Leitores da Ars Technica expressaram forte decepção e indignação no tópico de comentários da reportagem
  • Em 28 de fevereiro, o perfil de Edwards na Ars Technica havia sido alterado para o passado, confirmando que ele já não fazia mais parte da redação
  • O Futurism perguntou à Ars Technica, à Condé Nast e a Edwards sobre a situação de emprego, mas o veículo e a controladora não responderam, e Edwards disse que “não pode comentar”

Polêmica sobre o uso de IA no jornalismo e contexto

  • O caso é citado como mais um exemplo após outras polêmicas relacionadas à IA em veículos como CNET e Sports Illustrated
  • A reportagem aponta que atualmente as empresas de mídia incentivam o uso de IA, mas ainda carecem de padrões éticos claros
  • No ambiente em torno da adoção de IA, fatores como disputas de direitos autorais, expansão de conteúdo gerado por IA e queda de tráfego causada pelo AI Overviews do Google atuam de forma combinada
  • Nesse contexto, o caso da Ars Technica expõe o ponto de encontro entre a tecnologia de IA e o erro humano
  • Edwards comentou: “Sinto a ironia de ser um repórter de IA pego por uma alucinação de IA” e acrescentou que, embora valorize a precisão, desta vez foi “um fracasso doloroso”

1 comentários

 
GN⁺ 2026-03-04
Comentários do Hacker News
  • Jornalistas e blogueiros frequentemente analisam os erros e pedidos de desculpas de outras pessoas e discutem se são sinceros

    • Neste caso, Aurich Lawson, da Ars Technica, apagou um artigo que continha citações falsas geradas por LLM e publicou uma não-desculpa ambígua
    • No fim, o repórter foi demitido, mas a Ars nem sequer publicou uma matéria sobre isso
    • Numa era em que honestidade é vista como fraqueza, eu esperava que a Ars servisse de exemplo de transparência e responsabilidade, e isso foi decepcionante
    • A Ars assumiu responsabilidade ao reconhecer o erro e demitir o repórter
      • O próprio repórter também se explicou em detalhes no Bluesky
      • A reclamação é apenas que essa explicação não foi suficientemente satisfatória
    • Se o repórter cobria a área de IA, deveria ter verificado obrigatoriamente as citações geradas por LLM
      • Se a equipe editorial também não conferiu isso, então isso expõe os padrões editoriais da Ars
      • É preciso verificar se outros artigos também desapareceram de forma parecida
    • Fico em dúvida se é comum um veículo de imprensa anunciar publicamente que demitiu alguém
      • A Ars noticiou em poucos dias, na época, o problema com a origem das citações
    • A equipe editorial da Ars já tinha padrões baixos há bastante tempo
      • Metade das manchetes é clickbait, induz ao erro e tenta arrancar cliques
      • Há manchetes não confiáveis demais
    • Dizer que Aurich Lawson apagou a matéria é uma formulação de “culpar o mensageiro”
      • Ele é apenas a cara da comunidade, e provavelmente não tinha essa autoridade
  • Foi compartilhada uma experiência pessoal com o repórter Benji

    • No começo houve uma boa entrevista, mas depois, quando o projeto ganhou atenção e houve um novo contato, ele recusou alegando diretrizes de off the record / embargo de cobertura
    • A relação com jornalistas não pareceu transparente, o que passou uma sensação de opacidade da imprensa
    • Ao falar com jornalistas, é melhor sempre deixar tudo registrado por escrito
    • Na Alemanha, tentar usar jornalistas para divulgar projetos pessoais é visto de forma muito negativa
      • A resposta do Benji parece, na verdade, uma decisão normal e ética
    • Como jornalista, quando recebo sugestões de temas já cobertos por outros veículos, quase sempre recuso
      • Isso acontece porque se quer um furo, e pitches de PR quase sempre são rejeitados
    • Às vezes jornalistas simplesmente estão ocupados ou têm dificuldade de expressar uma recusa, e por isso não respondem
    • Jornalistas tendem a evitar cobrir o mesmo assunto duas vezes
    • A Ars tende a resumir e reescrever artigos externos, ou então fazer reportagem própria apenas em matérias exclusivas
  • Nossa organização usa um bloqueador automatizado para verificar citações jurídicas geradas por IA

    • Se a citação não bater com o banco de dados oficial, ela é marcada como alucinação (hallucination) e uma pessoa faz a revalidação
    • A IA é apenas uma ajudante de rascunho; a decisão final precisa passar por validação humana
    • Como na abordagem de Anders Hejlsberg, é mais seguro fazer a IA criar ferramentas do que pedir que ela faça o trabalho diretamente
      • Assim, o escopo de validação fica menor, e basta confirmar a precisão da ferramenta
  • Mais do que a demissão individual do repórter, o problema maior é o colapso da estrutura editorial

    • Nos últimos 10 anos, empresas de mídia reduziram as equipes de verificação, e com isso o sistema de checagem de fatos desapareceu
    • Ao introduzir ferramentas de IA e aumentar só o volume de produção sem validação, ocorreu uma falha sistêmica
    • Isso se parece com o modelo do queijo suíço de acidentes industriais, uma questão estrutural
    • É preciso discutir, daqui para frente, que os veículos de imprensa divulguem com transparência se usam IA
  • Eu respeito e apoio a Ars Technica, mas neste caso a responsabilidade é da equipe editorial

    • Se um artigo foi publicado sob a marca, deveria necessariamente ter passado por um processo de verificação factual
    • Ainda assim, a Ars tem muitos bons repórteres, então é difícil julgar tudo por um único erro
    • Eric Berger é enviesado em relação a Musk, e Dan Goodin tem pouca compreensão técnica
      • Já Ashley Belanger é a mais confiável, com apuração própria e escrita aprofundada
      • Beth Mole também reúne especialização e senso de humor
    • Sinto falta de Maggie Koerth e Jon Stokes, de antigamente
    • Não se deve superestimar os processos internos de verificação da grande mídia
  • Foi feito um resumo do contexto da discussão anterior e compartilhada uma linha do tempo da controvérsia sobre artigos de IA relacionados

  • Grandes veículos já estão obrigando o uso de LLMs

    • Existem diretrizes internas sobre como polir a saída da IA para que não pareça IA e como verificar citações
    • Por pressão de desempenho, jornalistas que não usam IA chegam a ser demitidos
    • Não é um problema só da Ars, mas um fenômeno geral criado por uma estrutura centrada em cliques
    • Também houve contestação perguntando se há base para isso
      • Afirmar que é um “segredo aberto” sem evidências concretas pode soar como fuga de responsabilidade gerencial
    • Também apareceu a opinião de que seria interessante ouvir mais sobre se essas diretrizes realmente existem e sobre métodos de disfarçar saídas de IA
  • O título do artigo menciona a demissão do repórter, mas na prática faltam fatos confirmados

    • Como base, foram citados a mudança da bio do repórter de “is” para “was” e o fato de os envolvidos não terem negado isso
    • Pelas postagens de Benj no Bluesky, não parece ter sido uma saída voluntária
  • Embora as críticas à Ars sejam fortes, o repórter já pagou o preço

    • Há quem acredite que a Ars será mais cuidadosa daqui para frente
  • A melhora na precisão do Google AI Overview é impressionante

    • Agora às vezes nem se verifica os links
    • Mas isso ainda é só um resumo dos resultados de busca e funciona de forma a canibalizar o conteúdo dos sites-fonte
    • Na prática, ele ainda fornece informações erradas com frequência
    • Muitas vezes o conteúdo do link não corresponde ao resumo
    • Um usuário disse que a IA inventou um projeto de pesquisa que não existia
    • É preciso conferir os links com frequência e reconhecer os limites de confiabilidade da IA