Perguntaram a um chatbot de IA sobre uma doença falsa… e ele respondeu: "É uma doença real"
(nature.com)Uma pesquisadora sueca criou a doença totalmente fictícia "Bixonimania" para testar se chatbots de IA a apresentariam como se fosse uma condição real. O resultado foi chocante. ChatGPT, Google Gemini, Microsoft Copilot, Perplexity e outros grandes sistemas de IA descreveram a doença falsa como se fosse verdadeira, e a situação chegou ao ponto de um artigo falso ser citado em um periódico acadêmico real.
O desenrolar do experimento
Almira Osmanovic Thunström, pesquisadora médica da Universidade de Gotemburgo, desenhou o experimento para verificar se grandes modelos de linguagem (LLMs) absorvem informações incorretas e as apresentam como se fossem informações de saúde confiáveis.
Ela escolheu o nome "Bixonimania" porque, segundo explicou, combinar uma doença ocular com o termo psiquiátrico "mania" seria algo que qualquer profissional de saúde acharia estranho, então optou deliberadamente por um nome absurdo.
Entre abril e maio de 2024, ela registrou dois preprints falsos na rede social acadêmica SciProfiles em nome do pesquisador fictício "Lazljiv Izgubljenovic", que usava uma foto de perfil gerada por IA.
Os artigos continham várias pistas de que eram falsos. Nos agradecimentos, havia menções ao "laboratório a bordo da USS Enterprise", à "Starfleet Academy" e à "Universidade de O Senhor dos Anéis", e o texto também incluía a frase "este artigo inteiro é inventado".
A reação das IAs
Poucos dias após a publicação da informação falsa, os principais chatbots de IA começaram a descrever a Bixonimania como uma doença real. Em 13 de abril de 2024, o Copilot da Microsoft a chamou de "condição interessante e rara"; no mesmo dia, o Google Gemini afirmou que era "uma doença causada por exposição excessiva à luz azul" e recomendou consultar um oftalmologista. O Perplexity chegou até a apresentar uma prevalência de 1 em 90 mil pessoas.
Em março de 2026, a situação não havia melhorado muito. O Microsoft Copilot respondeu que "ainda não é um nome diagnóstico amplamente reconhecido, mas vem sendo relatado como uma condição benigna relacionada à exposição à luz azul", enquanto o Perplexity a descreveu como "um termo emergente".
Um problema ainda mais grave: contaminação de periódicos acadêmicos
O artigo falso também foi citado em um periódico acadêmico real. Em um artigo publicado na Cureus, revista do grupo Springer Nature, uma equipe de pesquisa da Índia citou a Bixonimania como se fosse fato, descrevendo-a como "uma nova forma de hiperpigmentação periorbitária associada à luz azul". Após questionamento da Nature, o artigo foi retratado em 30 de março de 2026.
Alex Ruani, pesquisador da UCL que estuda desinformação em informações de saúde, avaliou o experimento como "um caso didático de como a informação falsa e a desinformação funcionam" e alertou que "precisamos proteger nossa confiança como se fosse ouro", já que não apenas a IA, mas também pesquisadores humanos que citaram a pesquisa falsa foram enganados.
Por que isso acontece?
Segundo pesquisa de Mahmud Omar, especialista em IA e saúde da Harvard Medical School, LLMs tendem a gerar e ampliar mais informações falsas ao processar textos profissionalmente formatados, como registros de alta hospitalar ou artigos clínicos, do que posts de redes sociais. "Quanto mais o texto parecer escrito por um médico, maior a taxa de alucinação", disse ele.
A explicação das empresas
- OpenAI: "O modelo que atualmente alimenta o ChatGPT melhorou significativamente a precisão das informações médicas, e resultados de pesquisas baseadas em modelos anteriores diferem da experiência atual dos usuários"
- Google: "O resultado reflete limitações de modelos iniciais, e para informações médicas sensíveis recomendamos consultar um especialista"
- Perplexity: "A precisão é um de nossos pontos fortes centrais, mas não afirmamos ter 100% de exatidão"
- Microsoft: sem resposta oficial
Implicações
Este experimento mostra de forma vívida, em um cenário no qual os chatbots de IA estão se estabelecendo rapidamente como provedores de informação médica, o quão rápido uma informação mal concebida pode se espalhar por meio da IA. Em vez de aceitar sem crítica as informações médicas geradas por IA, torna-se mais importante do que nunca criar o hábito de verificar diretamente fontes confiáveis.
Original: Nature, 2026.04.07
4 comentários
Lembrei do caso Sreckovich do Park Moon-seong
Deve haver um processo para avaliar se a fonte tem autoridade ou é confiável, mas mesmo assim parece que continua vulnerável.
Estou curioso para saber por que a Anthropic ficou de fora ''
Mesmo vá lá para a IA, mas será que a equipe de pesquisa da Índia nem leu isso?