2 pontos por GN⁺ 2025-04-05 | 1 comentários | Compartilhar no WhatsApp
  • OSINT (inteligência de fontes abertas) era, originalmente, um “jogo de pensar”
  • Recentemente, vem se transformando cada vez mais em um “jogo de confiança” que depende de ferramentas de IA
  • Começou com resumo de documentos, tradução e elaboração de relatórios, e passou para investigações conduzidas por IA, reduzindo o pensamento crítico
  • Na ilusão de que estamos “trabalhando de forma mais inteligente”, o processo real de raciocínio está desmoronando

Mudanças trazidas pela expansão da IA

  • O próprio autor também usa ChatGPT, Copilot, Claude e Gemini todos os dias
  • O problema é que os analistas começaram a pular as partes difíceis e a delegar o pensamento à IA
  • Em OSINT, não é só a velocidade que importa; o essencial é a capacidade de julgamento, e isso o modelo não pode fornecer
  • Se os hábitos críticos não forem preservados, você deixa de ser investigador e vira operador de automação

Um estudo que todos deveriam ler

  • No início de 2025, uma equipe da Carnegie Mellon e da Microsoft Research publicou um estudo com 319 trabalhadores do conhecimento
  • Resultado: quanto maior a confiança na IA, menor a tendência ao pensamento crítico
  • Em contrapartida, quanto maior a autoconfiança da pessoa, mais ela questiona e verifica
  • Confiar na IA acaba se conectando diretamente à renúncia do próprio raciocínio

O que está aparecendo no trabalho real

  • Em vez de formular hipóteses, passou-se a pedir ideias à IA
  • Em vez de verificar as fontes, presume-se que a IA já fez isso
  • Em vez de avaliar perspectivas diversas, edita-se o resumo da IA e encerra-se o trabalho
  • Até especialistas estão se acostumando com esse modo de operar e, em muitos casos, deixando de pensar

Casos de mau uso de IA em OSINT

Falha na verificação de imagens

  • Ao enviar uma foto de protesto ao Gemini e perguntar “onde é esta foto?”, ele respondeu “Paris”
  • Pelas placas, pelas placas de veículos e pelo estilo arquitetônico, estava claro que era a Bélgica, mas confiar na IA levou a um erro de julgamento

Distorção de perfil de pessoas

  • Ao resumir a atividade online de uma pessoa com Claude, ela foi descrita como “ativista, profissional de tecnologia, pessoa inofensiva”
  • O histórico de participação em fóruns de extrema direita foi omitido → risco de ser escolhida como palestrante de um evento sem verificação

Falha na análise de campanhas de desinformação

  • Mensagens do Telegram foram inseridas no ChatGPT para pedir resumo e análise de padrões
  • Apenas palavras-chave foram destacadas, enquanto os padrões linguísticos de grupos russos de manipulação de informação passaram despercebidos

A ameaça enfrentada pelos analistas de OSINT

  • Todos os casos acima são possibilidades de falha muito reais em OSINT
  • O problema é que analistas que não são mal-intencionados nem preguiçosos confiaram demais nas ferramentas
  • A IA não pode substituir a capacidade de investigação, e seu uso acrítico torna o OSINT perigoso

A expertise de OSINT que está morrendo (tradecraft)

  • Expertise não é uma “lista de ferramentas”, mas o hábito mental de desconfiar e confirmar
  • O instinto de olhar de novo quando algo parece estranho, verificar metadados e detectar inconsistências linguísticas
  • A IA faz o trabalho parecer fácil e elimina o processo de pensamento
  • No conforto da conveniência, a expertise está desaparecendo

Comparação entre analistas do passado e do presente

Antes:

  • Analisavam imagens borradas com várias ferramentas, verificavam dados EXIF e faziam busca reversa por marcos
  • Traduziram manualmente postagens em línguas estrangeiras, rastreavam hashtags e checavam o histórico de atividade das contas
  • Analisavam WHOIS de domínios, rastreavam subdomínios e investigavam conexões de e-mail

Agora:

  • Colocam a imagem na IA, conferem a localização e seguem em frente
  • Mandam a IA resumir a postagem e usam aquilo imediatamente
  • Perguntam à IA “quem opera este domínio?” e confiam na resposta

Consequências da perda de expertise

  • Perda da capacidade de pensar em contexto, cruzar fontes, validar hipóteses e investigar em profundidade
  • A IA induz ao engano com frases convincentes e aparência de confiança
  • Atores maliciosos exploram as fraquezas da IA e injetam dados manipulados

O novo papel do analista: fiscal da IA

  • A GenAI não vai desaparecer; o problema surge quando ela é tratada não como “assistente”, mas como “critério de julgamento”
  • O analista agora precisa testar, verificar e desconfiar da IA
  • É preciso deixar de ser “quem encontra respostas” para virar “quem desmonta respostas”

Mudança de mentalidade do analista

  • Antes, o papel era simplesmente fazer perguntas à IA e receber respostas;
    agora, ele precisa se tornar o de interrogar minuciosamente e verificar as respostas que a IA produz
  • Antes, bastava aceitar o conteúdo resumido pela IA como estava;
    agora, é preciso dissecar esse resumo em detalhes e analisar quais informações faltaram e quais interpretações foram introduzidas
  • Antes, era comum usar ou seguir diretamente as sugestões dadas pela IA;
    agora, é necessário decompor essas sugestões, entender por que surgiram e reconstruí-las
  • Antes, havia a tendência de confiar nas respostas limpas e categóricas apresentadas pela IA;
    agora, é preciso rastrear de onde vieram essas respostas e em quais fontes se baseiam, por mais sujo e trabalhoso que isso seja
  • Antes, a elaboração de perfis sobre pessoas ou eventos era delegada à IA;
    agora, é importante verificar por conta própria se a narrativa dentro desse perfil corresponde ao contexto real
  • Antes, se a IA produzisse bem um rascunho, ele era enviado como estava;
    agora, é necessário desmontar esse rascunho, encontrar os problemas e remontá-lo para que se torne realmente seu

Como reviver o pensamento crítico

Adicionar “fricção” de propósito

  • Resultados rápidos demais são perigosos
  • Mesmo com informações fornecidas pela IA, execute exatamente os mesmos procedimentos de verificação que você já fazia antes

Táticas:

  • “O que eu teria feito se não houvesse IA?” → execute essa tarefa de fato
  • Procure deliberadamente contraexemplos para verificar se a saída da IA está correta
  • Peça a outro modelo: “faça uma interpretação completamente oposta”

Restaurar o hábito de checar fontes

  • A GenAI não faz citações no estilo OSINT
  • Nomes, links e citações fornecidos pelo modelo sempre precisam ser rastreados de volta à origem

Táticas:

  • Compare lado a lado o resultado da IA vs. a fonte real
  • Mesmo vendo o resumo, abra obrigatoriamente o texto original

Tratar a IA como “parceira de pensamento”

  • A IA é apenas uma analista júnior e precisa de supervisão

Táticas:

  • Peça que ela refute sua hipótese
  • Forneça suas notas de investigação e peça que aponte o que está faltando
  • Use-a para simular diferentes perspectivas

Comparar entre modelos

  • Compare as saídas de ChatGPT, Claude, Gemini e Copilot
  • Trate as diferenças como sinais e investigue suas causas

“Quebrar” o modelo de propósito

  • Faça perguntas intencionalmente contraditórias ou ambíguas
  • Entenda os padrões de erro → complemente com julgamento humano

Continuar fazendo o “trabalho difícil”

  • A IA é uma ferramenta auxiliar; o trabalho central precisa ser feito diretamente por você

Táticas:

  • Tente fazer a geolocalização por conta própria antes de usar IA
  • Escreva seu próprio resumo antes de ver o resumo da IA
  • Antes de criar um perfil com IA, faça você mesmo o profiling e depois compare

O colapso silencioso e como enfrentá-lo

  • O colapso do pensamento crítico não chega de repente
  • Quanto mais rápidos e mais limpos os relatórios parecerem, maior pode ser a crise
  • Informações que parecem corretas e o hábito de acreditar nelas sem verificar são perigosos

Ainda assim, tudo isso pode ser revertido

  • Não é preciso excluir a IA
  • Em vez disso, é preciso confrontá-la, desconfiar dela e contestá-la
  • Você não é um “usuário de ferramenta”, mas um “investigador”

✅ Checklist para evitar o uso indevido de IA em OSINT

  • ✅ Você rastreou a origem da saída da IA?
  • ✅ Você consultou fontes não relacionadas à IA antes de aceitar o resultado?
  • ✅ Você desafiou o resultado com uma hipótese contrária ou com outro modelo?
  • ✅ Você fez validação cruzada com pelo menos duas fontes humanas?
  • ✅ Você executou manualmente pelo menos uma tarefa?
  • ✅ Você verificou se há pressupostos implícitos na saída da IA?
  • ✅ Você tratou a IA como parceira de pensamento, e não como fonte da verdade?
  • ✅ Você tornou deliberadamente o processo de verificação mais lento?
  • ✅ Você se perguntou: “No que estou acreditando sem confirmar?”
  • ✅ Você deixou claro ao leitor se houve uso de IA no resultado de OSINT?

1 comentários

 
GN⁺ 2025-04-05
Opinião do Hacker News

• Os participantes não eram preguiçosos. Eram especialistas experientes

  • É exagerado supor que, antes da chegada da IA, eles eram ótimos pensadores críticos
  • Na minha experiência, as pessoas que terceirizam o pensamento para LLMs são as mesmas que já terceirizavam o pensamento para podcasts, artigos de notícias, posts no Reddit, Twitter e TikTok
  • Os LLMs deram a elas opiniões que podiam repetir

• A parte assustadora é que muitos usuários acreditam que estão pensando criticamente graças à GenAI

  • Não é muito diferente de se sentir especialista por causa de vídeos do TikTok
  • Pessoas que terceirizam o pensamento e colecionam opiniões que querem ouvir agora conseguem chegar com mais facilidade às conclusões que desejam

• No campo da inteligência de fontes abertas, o grande problema não é a análise profunda, mas encontrar, em meio ao dilúvio de informações, o que vale a pena ver

  • Do ponto de vista da CIA, a comunidade de inteligência dos EUA usa um sistema de IA generativa chamado OSIRIS para analisar informações de fontes abertas
  • O ex-chefe da CIA disse que ele é usado principalmente para resumos

• Em vez de formular hipóteses, os usuários pedem ideias à IA

  • Em vez de verificar as fontes, presumem que a IA já verificou
  • Em vez de avaliar múltiplas perspectivas, consolidam e editam o resumo da IA e seguem em frente
  • Isso não é um cenário hipotético; é algo que está realmente acontecendo

• Acho que os atos físicos e os momentos de escrever ou fazer análise importam

  • Levar uma imagem borrada para um software de edição de fotos e usar ferramentas de manipulação é parte essencial para resolver o problema
  • Estou elaborando um fluxograma do processo de uma linha de fabricação para um novo produto
  • Parece que ideias e perguntas surgem nesses pequenos espaços

• Essa é uma das formas pelas quais a IA pode atingir uma inteligência sobre-humana: tornando os humanos mais burros

  • O uso de GenAI parece ser mais prejudicial do que uma ferramenta útil
  • Em um cenário em que se envia uma foto e se pergunta a localização, a IA apresenta o lugar errado

• Sinto que a IA torna o aprendizado mais lento

  • Estou aprendendo Rust, e a IA ajuda a começar, mas leva mais tempo para atingir capacidade real de trabalho
  • Parece que eu deveria desligar a IA e me virar sozinho

• Trabalho como analista há mais de 20 anos e uso OSINT e IA

  • A maioria dos analistas tem capacidade de pensamento crítico
  • Como o OSINT nem sempre é controlado por procedimentos legais, muita gente pode se tornar analista de OSINT
  • Existe pressão para ceder às sugestões da IA

• OSINT e análise são habilidades profissionais com metodologia

  • OSINT com IA torna possível o que antes era impossível
  • A falta de pensamento crítico pode ser resultado da redução de pessoal ou de processos para validação de dados

• Se eu quisesse entender os fundamentos de OSINT, visitaria a página inicial

  • Mas uma consulta simples ao chatgpt daria a resposta mais rápido

• Este post não se limita a OSINT e pode se aplicar amplamente a qualquer lugar em que a IA esteja sendo adotada como uma nova ferramenta