O pensamento crítico no OSINT está entrando em colapso gradual por causa da IA
(dutchosintguy.com)- OSINT (inteligência de fontes abertas) era, originalmente, um “jogo de pensar”
- Recentemente, vem se transformando cada vez mais em um “jogo de confiança” que depende de ferramentas de IA
- Começou com resumo de documentos, tradução e elaboração de relatórios, e passou para investigações conduzidas por IA, reduzindo o pensamento crítico
- Na ilusão de que estamos “trabalhando de forma mais inteligente”, o processo real de raciocínio está desmoronando
Mudanças trazidas pela expansão da IA
- O próprio autor também usa ChatGPT, Copilot, Claude e Gemini todos os dias
- O problema é que os analistas começaram a pular as partes difíceis e a delegar o pensamento à IA
- Em OSINT, não é só a velocidade que importa; o essencial é a capacidade de julgamento, e isso o modelo não pode fornecer
- Se os hábitos críticos não forem preservados, você deixa de ser investigador e vira operador de automação
Um estudo que todos deveriam ler
- No início de 2025, uma equipe da Carnegie Mellon e da Microsoft Research publicou um estudo com 319 trabalhadores do conhecimento
- Resultado: quanto maior a confiança na IA, menor a tendência ao pensamento crítico
- Em contrapartida, quanto maior a autoconfiança da pessoa, mais ela questiona e verifica
- Confiar na IA acaba se conectando diretamente à renúncia do próprio raciocínio
O que está aparecendo no trabalho real
- Em vez de formular hipóteses, passou-se a pedir ideias à IA
- Em vez de verificar as fontes, presume-se que a IA já fez isso
- Em vez de avaliar perspectivas diversas, edita-se o resumo da IA e encerra-se o trabalho
- Até especialistas estão se acostumando com esse modo de operar e, em muitos casos, deixando de pensar
Casos de mau uso de IA em OSINT
Falha na verificação de imagens
- Ao enviar uma foto de protesto ao Gemini e perguntar “onde é esta foto?”, ele respondeu “Paris”
- Pelas placas, pelas placas de veículos e pelo estilo arquitetônico, estava claro que era a Bélgica, mas confiar na IA levou a um erro de julgamento
Distorção de perfil de pessoas
- Ao resumir a atividade online de uma pessoa com Claude, ela foi descrita como “ativista, profissional de tecnologia, pessoa inofensiva”
- O histórico de participação em fóruns de extrema direita foi omitido → risco de ser escolhida como palestrante de um evento sem verificação
Falha na análise de campanhas de desinformação
- Mensagens do Telegram foram inseridas no ChatGPT para pedir resumo e análise de padrões
- Apenas palavras-chave foram destacadas, enquanto os padrões linguísticos de grupos russos de manipulação de informação passaram despercebidos
A ameaça enfrentada pelos analistas de OSINT
- Todos os casos acima são possibilidades de falha muito reais em OSINT
- O problema é que analistas que não são mal-intencionados nem preguiçosos confiaram demais nas ferramentas
- A IA não pode substituir a capacidade de investigação, e seu uso acrítico torna o OSINT perigoso
A expertise de OSINT que está morrendo (tradecraft)
- Expertise não é uma “lista de ferramentas”, mas o hábito mental de desconfiar e confirmar
- O instinto de olhar de novo quando algo parece estranho, verificar metadados e detectar inconsistências linguísticas
- A IA faz o trabalho parecer fácil e elimina o processo de pensamento
- No conforto da conveniência, a expertise está desaparecendo
Comparação entre analistas do passado e do presente
Antes:
- Analisavam imagens borradas com várias ferramentas, verificavam dados EXIF e faziam busca reversa por marcos
- Traduziram manualmente postagens em línguas estrangeiras, rastreavam hashtags e checavam o histórico de atividade das contas
- Analisavam WHOIS de domínios, rastreavam subdomínios e investigavam conexões de e-mail
Agora:
- Colocam a imagem na IA, conferem a localização e seguem em frente
- Mandam a IA resumir a postagem e usam aquilo imediatamente
- Perguntam à IA “quem opera este domínio?” e confiam na resposta
Consequências da perda de expertise
- Perda da capacidade de pensar em contexto, cruzar fontes, validar hipóteses e investigar em profundidade
- A IA induz ao engano com frases convincentes e aparência de confiança
- Atores maliciosos exploram as fraquezas da IA e injetam dados manipulados
O novo papel do analista: fiscal da IA
- A GenAI não vai desaparecer; o problema surge quando ela é tratada não como “assistente”, mas como “critério de julgamento”
- O analista agora precisa testar, verificar e desconfiar da IA
- É preciso deixar de ser “quem encontra respostas” para virar “quem desmonta respostas”
Mudança de mentalidade do analista
- Antes, o papel era simplesmente fazer perguntas à IA e receber respostas;
agora, ele precisa se tornar o de interrogar minuciosamente e verificar as respostas que a IA produz - Antes, bastava aceitar o conteúdo resumido pela IA como estava;
agora, é preciso dissecar esse resumo em detalhes e analisar quais informações faltaram e quais interpretações foram introduzidas - Antes, era comum usar ou seguir diretamente as sugestões dadas pela IA;
agora, é necessário decompor essas sugestões, entender por que surgiram e reconstruí-las - Antes, havia a tendência de confiar nas respostas limpas e categóricas apresentadas pela IA;
agora, é preciso rastrear de onde vieram essas respostas e em quais fontes se baseiam, por mais sujo e trabalhoso que isso seja - Antes, a elaboração de perfis sobre pessoas ou eventos era delegada à IA;
agora, é importante verificar por conta própria se a narrativa dentro desse perfil corresponde ao contexto real - Antes, se a IA produzisse bem um rascunho, ele era enviado como estava;
agora, é necessário desmontar esse rascunho, encontrar os problemas e remontá-lo para que se torne realmente seu
Como reviver o pensamento crítico
Adicionar “fricção” de propósito
- Resultados rápidos demais são perigosos
- Mesmo com informações fornecidas pela IA, execute exatamente os mesmos procedimentos de verificação que você já fazia antes
Táticas:
- “O que eu teria feito se não houvesse IA?” → execute essa tarefa de fato
- Procure deliberadamente contraexemplos para verificar se a saída da IA está correta
- Peça a outro modelo: “faça uma interpretação completamente oposta”
Restaurar o hábito de checar fontes
- A GenAI não faz citações no estilo OSINT
- Nomes, links e citações fornecidos pelo modelo sempre precisam ser rastreados de volta à origem
Táticas:
- Compare lado a lado o resultado da IA vs. a fonte real
- Mesmo vendo o resumo, abra obrigatoriamente o texto original
Tratar a IA como “parceira de pensamento”
- A IA é apenas uma analista júnior e precisa de supervisão
Táticas:
- Peça que ela refute sua hipótese
- Forneça suas notas de investigação e peça que aponte o que está faltando
- Use-a para simular diferentes perspectivas
Comparar entre modelos
- Compare as saídas de ChatGPT, Claude, Gemini e Copilot
- Trate as diferenças como sinais e investigue suas causas
“Quebrar” o modelo de propósito
- Faça perguntas intencionalmente contraditórias ou ambíguas
- Entenda os padrões de erro → complemente com julgamento humano
Continuar fazendo o “trabalho difícil”
- A IA é uma ferramenta auxiliar; o trabalho central precisa ser feito diretamente por você
Táticas:
- Tente fazer a geolocalização por conta própria antes de usar IA
- Escreva seu próprio resumo antes de ver o resumo da IA
- Antes de criar um perfil com IA, faça você mesmo o profiling e depois compare
O colapso silencioso e como enfrentá-lo
- O colapso do pensamento crítico não chega de repente
- Quanto mais rápidos e mais limpos os relatórios parecerem, maior pode ser a crise
- Informações que parecem corretas e o hábito de acreditar nelas sem verificar são perigosos
Ainda assim, tudo isso pode ser revertido
- Não é preciso excluir a IA
- Em vez disso, é preciso confrontá-la, desconfiar dela e contestá-la
- Você não é um “usuário de ferramenta”, mas um “investigador”
✅ Checklist para evitar o uso indevido de IA em OSINT
- ✅ Você rastreou a origem da saída da IA?
- ✅ Você consultou fontes não relacionadas à IA antes de aceitar o resultado?
- ✅ Você desafiou o resultado com uma hipótese contrária ou com outro modelo?
- ✅ Você fez validação cruzada com pelo menos duas fontes humanas?
- ✅ Você executou manualmente pelo menos uma tarefa?
- ✅ Você verificou se há pressupostos implícitos na saída da IA?
- ✅ Você tratou a IA como parceira de pensamento, e não como fonte da verdade?
- ✅ Você tornou deliberadamente o processo de verificação mais lento?
- ✅ Você se perguntou: “No que estou acreditando sem confirmar?”
- ✅ Você deixou claro ao leitor se houve uso de IA no resultado de OSINT?
1 comentários
Opinião do Hacker News
• Os participantes não eram preguiçosos. Eram especialistas experientes
• A parte assustadora é que muitos usuários acreditam que estão pensando criticamente graças à GenAI
• No campo da inteligência de fontes abertas, o grande problema não é a análise profunda, mas encontrar, em meio ao dilúvio de informações, o que vale a pena ver
• Em vez de formular hipóteses, os usuários pedem ideias à IA
• Acho que os atos físicos e os momentos de escrever ou fazer análise importam
• Essa é uma das formas pelas quais a IA pode atingir uma inteligência sobre-humana: tornando os humanos mais burros
• Sinto que a IA torna o aprendizado mais lento
• Trabalho como analista há mais de 20 anos e uso OSINT e IA
• OSINT e análise são habilidades profissionais com metodologia
• Se eu quisesse entender os fundamentos de OSINT, visitaria a página inicial
• Este post não se limita a OSINT e pode se aplicar amplamente a qualquer lugar em que a IA esteja sendo adotada como uma nova ferramenta