Pensar — rápido, devagar e com inteligência artificial: como a IA está reconfigurando a forma como os humanos pensam
(papers.ssrn.com)Thinking—Fast, Slow, and Artificial
Estudo afirma que a IA não é uma ferramenta, mas um “terceiro sistema de pensamento”
- Janeiro de 2026, Wharton School da Universidade da Pensilvânia
- Steven D. Shaw (pesquisador de doutorado)
- Gideon Nave (professor de marketing/ciência comportamental)
- Expande o modelo de pensamento humano de System 1 / 2 → System 1 / 2 / 3
- Argumento central:
→ A IA não é apenas uma ferramenta, mas um sistema de pensamento que opera externamente (System 3)
Conceitos centrais
Modelo anterior
- System 1: intuição rápida
- System 2: análise lenta
Conceito adicionado
- System 3: IA (sistema cognitivo externo)
- opera fora do cérebro
- automatizado, baseado em dados, rápido
- pode auxiliar ou substituir o pensamento humano
Cognitive Surrender (rendição cognitiva)
-
Definição:
→ fenômeno de aceitar os resultados da IA como estão, sem verificação -
Diferença em relação a conceitos anteriores:
- Offloading: uso de ferramenta (como uma calculadora)
- Surrender: transferência do próprio julgamento
-
Característica:
- o usuário não percebe “a IA respondeu”, mas sim
→ “eu julguei”
- o usuário não percebe “a IA respondeu”, mas sim
Resumo do experimento
- Participantes: 1.372 pessoas
- Total de 9.593 trials
- A precisão da IA foi manipulada intencionalmente
Resultado 1: as pessoas seguem a IA quase integralmente
- IA correta → 92,7% seguem
- IA errada → 79,8% seguem
→ mesmo quando está errada, a maioria aceita
Resultado 2: o desempenho fica subordinado à IA
- Brain-only: 45,8%
- IA correta: 71,0%
- IA errada: 31,5%
→ quando a IA erra, o resultado é pior do que sem ela
Resultado 3: problema de confiança + autoconfiança
- Ao usar IA:
- aumento de +11,7 p.p. na confiança
- independentemente de haver erro ou não
→ mesmo quando erram, ficam mais convictos
Resultados por condição
Pressão de tempo
- enfraquece o pensamento humano (redução do System 2)
- a dependência da IA se mantém
- Resultado:
- se a IA acerta, ajuda
- se a IA erra, o quadro continua piorando
Recompensa + feedback
- aumenta a correção de erros
- aumenta a taxa de rejeição de respostas erradas da IA
- Mas:
- a rendição cognitiva não desaparece completamente
Diferenças individuais
Aumento da rendição cognitiva:
- alta confiança na IA
- baixa tendência ao pensamento analítico
- baixa capacidade cognitiva
Redução da rendição cognitiva:
- Fluid IQ alto
- alta Need for Cognition
Mudança importante de enquadramento
O pensamento humano agora
não é mais “pensamento rápido vs. pensamento lento”, mas
→ está mudando para a estrutura “meu pensamento vs. pensamento da IA”
Principais riscos
- o desempenho muda diretamente de acordo com a precisão da IA
- em situações de erro:
- redução do julgamento
- aumento da convicção
- a responsabilidade se torna ambígua
Implicações
-
o problema não é a IA errar, mas sim
→ o usuário não verificar -
especialmente
→ em áreas que exigem julgamento de alta inteligência, o risco se amplifica
Relacionado: https://news.ycombinator.com/item?id=47467913
2 comentários
Hum, é isso mesmo. Quando a IA toma uma decisão errada, em vez de eu pensar, peço para a IA corrigir um pouco, e no fim, como não saía uma resposta, lembro que até cheguei a abrir uma nova sessão...
Por que os sistemas de IA não aprendem e o que fazer a respeito
Lições sobre aprendizado autônomo a partir da ciência cognitiva
Emmanuel Dupoux, Yann LeCun, Jitendra Malik
https://arxiv.org/pdf/2603.15381