- As respostas de modelos de linguagem de grande porte (LLMs) não são fatos, mas resultados de previsões estatísticas de palavras
- ChatGPT, Claude, Gemini e outros apenas preveem a próxima palavra mais provável, sem reconhecer a origem nem a veracidade da informação
- Eles podem criar frases convincentes, mas seu conteúdo pode não ser preciso nem confiável
- O ato de copiar e repassar respostas da IA como se fossem base autoritativa não passa de repetir “combinações de palavras que costumam aparecer juntas”
- A prática de citar respostas de IA como fatos revela o risco de enfraquecimento da verificação do conhecimento e da capacidade de pensar criticamente
A natureza das respostas de IA
- Respostas de modelos de linguagem de grande porte como ChatGPT, Claude e Gemini não são fatos
- Eles funcionam prevendo a próxima palavra que virá na frase
- Como resultado, podem gerar informações plausíveis, mas imprecisas
- Esses modelos podem ser comparados a uma pessoa que estudou uma enorme quantidade de material, mas não se lembra das fontes
- Ou seja, recombinam frases sem reconhecer a base nem o contexto das informações
Os limites da confiabilidade
- As respostas ou conselhos fornecidos pela IA podem até estar corretos, mas sua fundamentação é obscura
- A resposta não vem de um “livro lembrado”, e sim de combinações de palavras que aparecem com frequência juntas
- Portanto, é inadequado citar a saída da IA como fato ou como informação autoritativa
- A afirmação “o ChatGPT disse isso” não passa de uma citação do resultado de uma previsão de palavras
Os riscos da citação
- Copiar e transmitir respostas da IA tal como saem é como espalhar combinações de palavras, não a verdade
- Às vezes isso pode ser útil ou trazer insights, mas não é a verdade nem um critério final de julgamento
- O texto descreve esse comportamento como “pessoas inteligentes parando de pensar”
Materiais adicionais de referência
Conclusão
- Embora a própria tecnologia de IA e machine learning seja avaliada de forma positiva,
é preciso ter cautela com a atitude de citar ou confiar em respostas de IA sem senso crítico
- O site recomenda compartilhar este conteúdo com quem diz “But ChatGPT Said…”
5 comentários
É um post de um ano atrás?
kkkkkk
https://github.com/leoherzog/stopcitingai/blob/main/index.html
Não, se você verificar o histórico de alterações do arquivo, verá que o rascunho foi criado há uma semana.
"É o resultado da previsão estatística de palavras" — só de reconhecer esse fato já parece ficar claro como lidar com a IA
Opinião no Hacker News
As respostas de LLMs como ChatGPT, Claude e Gemini não são fatos
Elas apenas preveem qual palavra vem em seguida
Analogias como “um artigo da Wikipédia também não é fato, é só uma variação no fluxo do campo magnético” não fazem sentido
No fim, o que importa é citar a fonte. Seja Wikipédia, um humano ou um cachorro, sem fonte eu não confio
A saída é apenas uma combinação de palavras escolhidas probabilisticamente; algumas podem vir de expressões comuns, outras de lugares como o 4chan, e outras podem ser alucinações (hallucination)
Nesses casos, a própria ideia de “fonte do fato” deixa de fazer sentido
Dependendo de como se define “fato”, o ponto da discussão muda
O problema não é o resultado, mas a confiabilidade do processo que levou a ele
Mesmo que você jogue dados e acerte que “3+4=7”, isso só significa que acertou por acaso; o processo continua errado
O problema dos LLMs é mais próximo desse tipo de erro de processo
Na prática, eles são treinados para se alinhar com preferências humanas e bajulação (sycophancy), produzindo um “texto xarope de milho com alto teor de frutose” que é agradável de ler
Por isso, podem ser até inadequados para brainstorming ou resumo
Mas estão melhorando cada vez mais em perguntas factuais simples
No fim, LLMs não são meros preditores; são entidades otimizadas para parecer mais convincentes
Mesmo em empresas pequenas, é importante definir expectativas sobre o uso de IA
Um princípio simples como “mesmo usando IA, a responsabilidade pelo resultado continua sendo sua” já basta
Verificação de dados, testes de código e checagem das respostas são indispensáveis
Antes se dizia: “não copie e cole do Stack Overflow; leia e entenda”
O mundo mudou, mas a essência continua a mesma
Essa é a grande mudança
A analogia com “uma pessoa que leu milhares de livros, mas não lembra onde leu cada coisa” parece muito com um LLM
Eu também às vezes alucino a fonte, pensando algo como “acho que isso estava na série Schaum”
No começo você lembra onde aprendeu que “Paris é a capital da França”, mas com o tempo a fonte desaparece e só o conteúdo fica
LLMs seguem exatamente o princípio de Garbage In, Garbage Out
Funcionam bem em áreas bem documentadas, mas em temas nebulosos produzem informação ruim
Especialmente por terem pouca compreensão de contexto, erram se você não especificar com clareza
Em suporte técnico, surgem discussões frequentes com clientes que acreditam cegamente na resposta do ChatGPT
Mesmo quando você pede correção, volta outra resposta errada junto com um pedido de desculpas inútil
A era da “pós-verdade (post-truth)” assusta, mas ao mesmo tempo dá a sensação de que as pessoas estão desconfiando mais e fazendo mais perguntas
Como disse Rorty, “fato é aquilo sobre o qual já não discutimos mais”, ou seja, um produto de consenso social
Mais importante do que discutir a verdade é como mediar o choque de linguagens entre comunidades de discurso
Se você disser ao seu chefe “isso é uma ideia idiota”, dificilmente ele vai gostar
É melhor perguntar: “podemos olhar esse log da conversa juntos?”
Assim dá para verificar em que ponto o LLM introduziu o viés
Não vejo por que eu deveria refutar uma saída de LLM não verificada; a responsabilidade é de quem citou
A discussão sobre “citar fontes” está deixando passar um problema mais profundo
LLMs são fortes em tarefas verificáveis (código, tradução, resumo), mas fracos em áreas não verificáveis (pesquisa, domínios especializados)
Por isso eu só uso LLMs como geradores de rascunho que um especialista possa revisar
O risco não é a alucinação em si, mas a diferença de confiança que surge quando a fluência do modelo supera a especialização do usuário
Até abordagens com chamadas de ferramentas como RAG ou busca na web acabam sendo apenas uma troca por outros modos de falha
Minha reação é: “se o ChatGPT é mais confiável do que eu, por que me contrataram?”
Eu poderia passar horas explicando, mas não seria melhor simplesmente confiar no especialista?