Por que os modelos de linguagem alucinam? por OpenAI
(openai.com)O problema da confiabilidade dos sistemas de IA
-
Esforços para melhorar a utilidade e a confiabilidade dos sistemas de IA
- A OpenAI está trabalhando para tornar os sistemas de IA mais úteis e confiáveis.
- Apesar desses esforços, um dos problemas que continua difícil de resolver, mesmo à medida que os modelos de linguagem se tornam mais capazes, é a alucinação (hallucinations).
-
Definição de alucinação e seus problemas
- Alucinação significa que uma resposta gerada pelo modelo com confiança não corresponde aos fatos.
- Esse fenômeno é um problema importante que pode reduzir a confiabilidade dos sistemas de IA.
-
Resultados de pesquisa e causas das alucinações
- Um novo artigo de pesquisa argumenta que a razão pela qual os modelos de linguagem alucinam é que os procedimentos padrão de treinamento e avaliação recompensam o chute em vez de reconhecer a incerteza.
- Isso aumenta a possibilidade de os modelos de IA gerarem informações incorretas.
-
Alucinações no ChatGPT e no GPT-5
- O ChatGPT também apresenta alucinações.
- No GPT-5, especialmente durante o raciocínio, as alucinações diminuíram consideravelmente, mas ainda podem ocorrer.
- Isso sugere a necessidade de pesquisa e melhorias contínuas para aumentar a confiabilidade dos sistemas de IA.
Definição de alucinação
- Alucinação é uma afirmação plausível, porém incorreta, gerada por um modelo de linguagem.
- Essas alucinações podem surgir de formas inesperadas e ocorrer até mesmo em perguntas simples.
Exemplos de alucinação
- Por exemplo, quando se perguntou a um chatbot amplamente usado qual era o título da tese de doutorado de Adam Tauman Kalai, o chatbot apresentou com confiança três respostas diferentes.
- No entanto, todas as respostas apresentadas estavam erradas.
Problemas dos métodos de avaliação
- Os métodos atuais de avaliação estão criando incentivos errados.
- A avaliação em si não causa diretamente alucinações, mas a maior parte das avaliações mede o desempenho dos modelos de uma forma que incentiva o chute e desestimula a honestidade sobre a incerteza.
- Por exemplo, pense em uma prova de múltipla escolha: se você não souber a resposta e simplesmente chutar, pode acertar por sorte.
- Esse tipo de abordagem cria um ambiente em que é possível melhorar o desempenho por meio de chutes aleatórios, em vez de uma avaliação precisa.
Como o desempenho dos modelos é avaliado
-
Conceito de avaliação de desempenho do modelo
A avaliação do desempenho do modelo é feita com base na exatidão das respostas para perguntas dadas. -
Tratamento da incerteza
Se o modelo não souber a resposta para uma determinada pergunta, responder “não sei” não garante uma pontuação precisa. -
Possibilidade de chute
Por exemplo, se o modelo chutar “10 de setembro” ao responder a uma pergunta sobre o aniversário de alguém, poderá acertar com probabilidade de 1/365. -
Diferença nas pontuações de desempenho
Em milhares de perguntas de teste, um modelo que chuta pode aparecer melhor no placar do que um modelo cauteloso que reconhece sua incerteza.
Conclusão e implicações
-
Limitações da avaliação de desempenho dos modelos
Um modelo que chuta pode registrar uma pontuação mais alta, mas é importante observar que isso não significa que ele esteja realmente fornecendo informações corretas. -
Importância da confiabilidade
Portanto, ao avaliar a confiabilidade e a precisão dos modelos, é preciso considerar a importância de fornecer informações corretas, e não apenas pontuações simples.
Comparação entre precisão e taxa de erro dos modelos
- Precisão: o modelo mais antigo OpenAI o4-mini mostra um desempenho ligeiramente melhor.
- Taxa de erro: no entanto, a taxa de erro desse modelo (ou seja, a taxa de alucinação) é consideravelmente alta.
- Chute estratégico: chutar de forma estratégica quando há incerteza melhora a precisão, mas aumenta os erros e as alucinações.
- Critério de avaliação: ao calcular a média dos resultados de dezenas de avaliações, a maioria dos benchmarks enfatiza métricas de precisão. Isso leva a uma falsa dicotomia entre certo e errado.
Uma nova abordagem para a avaliação
-
Apresentação do problema
Os métodos tradicionais de avaliação focam apenas na precisão. Isso pode atuar como um fator que reduz a confiabilidade da avaliação. -
Proposta de solução
É possível adotar uma abordagem que aplique penalidades maiores para erros cometidos com confiança e penalidades menores para incerteza. Isso pode tornar a avaliação mais justa. -
Concessão de pontuação parcial
É importante atribuir pontuação parcial para expressões adequadas de incerteza. Isso oferece aos alunos a oportunidade de expressar seu próprio raciocínio. -
Tendências de pesquisa
Vários grupos de pesquisa estão explorando formas de avaliação que consideram incerteza e calibração. Essa abordagem pode propor novos critérios que vão além da precisão da avaliação.
Entendendo as causas das alucinações
- Alucinação é o fenômeno em que ocorre uma determinada imprecisão factual.
- A origem dessas imprecisões está no processo de aprendizado dos modelos de linguagem.
- Modelos de linguagem aprendem por meio de pré-treinamento (pretraining), prevendo a próxima palavra com base em grandes volumes de texto.
- Diferentemente de problemas tradicionais de aprendizado de máquina, cada afirmação não vem acompanhada de um rótulo de “verdadeiro/falso”.
A persistência do problema das alucinações
- Há várias razões pelas quais é difícil eliminar as alucinações.
- A forma como os modelos de linguagem aprendem desempenha um papel importante nas causas das alucinações.
- Como esse método de aprendizado não fornece informações corretas de forma garantida, alucinações podem ocorrer.
- A especificidade e a complexidade das alucinações estão profundamente relacionadas aos dados de treinamento dos modelos de linguagem.
A importância da perspectiva estatística
- Este artigo busca esclarecer a essência das alucinações e rebater mal-entendidos comuns.
- A intenção é contribuir para a análise e a compreensão do fenômeno das alucinações por meio de uma abordagem estatística.
- As alucinações estão intimamente ligadas à precisão dos modelos de inteligência artificial.
Relação entre alucinação e precisão
- Afirmação: existe a crença de que melhorar a precisão eliminaria as alucinações.
- Argumenta-se que um modelo 100% preciso nunca alucinaria.
- No entanto, isso ignora a natureza das alucinações.
Limites da precisão
- Descoberta: a precisão jamais poderá chegar a 100%.
- Razões:
- independentemente do tamanho do modelo
- independentemente das capacidades de busca e raciocínio
- algumas perguntas do mundo real são inerentemente impossíveis de responder.
- Esses limites sugerem que não será possível eliminar completamente o fenômeno das alucinações.
Direções futuras de pesquisa
- Pesquisas futuras devem buscar abordagens alternativas para reduzir as alucinações.
- Além de aumentar a precisão dos modelos, são necessárias diversas metodologias para entender as causas das alucinações e enfrentá-las.
- Uma compreensão mais profunda do fenômeno das alucinações contribuirá para aumentar a confiabilidade da inteligência artificial.
Ainda não há comentários.