2 pontos por GN⁺ 2026-03-28 | 1 comentários | Compartilhar no WhatsApp
  • Em fevereiro de 2026, os militares dos EUA bombardearam a escola primária de Minab, no Irã, matando mais de 175 pessoas, e no início se espalhou a informação falsa de que o Claude, da Anthropic, havia escolhido o alvo
  • Na realidade, a decisão do alvo foi tomada pelo sistema Maven, da Palantir, e a falha em atualizar dados militares antigos levou à morte de civis
  • O Maven automatizou o procedimento da kill chain a ponto de decidir 1.000 alvos por hora, e nesse processo as etapas de verificação e reavaliação foram removidas
  • Essa automação, assim como em casos passados de bombardeios por engano na Guerra do Vietnã e na Guerra do Kosovo, levou a um problema estrutural recorrente em que a confiança tecnológica substituiu o julgamento humano
  • O ponto central do caso não é um erro da IA, mas sim um sistema burocrático que eliminou o julgamento e o desaparecimento da responsabilidade humana

O bombardeio da escola primária de Minab, no Irã, e a ilusão da ‘culpa da IA’

  • Em 28 de fevereiro de 2026, os militares dos EUA bombardearam a escola primária Shajareh Tayyebeh, em Minab, no sul do Irã, matando entre 175 e 180 pessoas, incluindo meninas de 7 a 12 anos
    • Logo após o bombardeio, a imprensa e o meio político se concentraram em saber se o chatbot Claude, da Anthropic, havia selecionado o alvo
    • No entanto, o sistema real de seleção de alvos era o Maven, da Palantir, e Claude não teve relação com o caso
    • A escola havia sido uma instalação militar no passado, mas por falha na atualização das informações ainda estava classificada como alvo militar

Origem e estrutura do sistema Maven

  • O Maven é um projeto iniciado em 2017 pela Algorithmic Warfare Cross-Functional Team do Departamento de Defesa dos EUA
    • O objetivo inicial era automatizar a análise de imagens de drones, reduzindo a sobrecarga de trabalho de analistas humanos
    • O contrato foi inicialmente assumido pelo Google, mas foi retirado após reação interna; depois disso, a Palantir Technologies passou a liderar o desenvolvimento a partir de 2019
  • O Maven evoluiu para uma infraestrutura de targeting que integra dados de satélite, sinais e sensores, ligando a detecção do alvo até a ordem de ataque
    • A Palantir reestruturou o Maven como um “Smart System”, integrando fusão de dados em tempo real e suporte automatizado à tomada de decisão
    • A interface do Maven é composta por um quadro de workflow no estilo Kanban, no qual os alvos são processados à medida que passam por etapas
    • Com 3 cliques, é possível converter dados de detecção em um alvo oficial, e o sistema recomenda meios de ataque e combinações de armamentos

Compressão da ‘kill chain’ e competição por velocidade

  • O Maven é a forma mais recente de compressão do procedimento militar chamado ‘kill chain’
    • A kill chain é um conceito que sistematiza o processo da detecção à destruição, e os militares dos EUA vêm desenvolvendo tecnologias para encurtá-la há décadas
    • O Maven é um sistema que eleva ao extremo a velocidade de decisão, com a meta, em 2024, de decidir 1.000 alvos por hora
    • Isso equivale a 1 decisão a cada 3,6 segundos ou, por pessoa, 1 decisão a cada 72 segundos
  • Na Guerra do Iraque de 2003, um trabalho de targeting antes realizado por 2.000 pessoas foi substituído por 20 pessoas
    • O ganho de velocidade eliminou a margem para julgamento, e os processos de verificação, contestação e reavaliação desapareceram
    • Como resultado, isso levou ao aumento da possibilidade de erro de avaliação e à ampliação das vítimas civis

Repetição histórica: confiança tecnológica e desaparecimento do julgamento

  • O problema do Maven não é um fenômeno novo, mas a repetição de um padrão histórico em que a automação tecnológica substitui o julgamento
    • A Operation Igloo White, na Guerra do Vietnã nos anos 1960, produziu falsos resultados quando um sistema de alvos baseado em sensores falhou
    • A CIA relatou que o “número de caminhões destruídos” excedia o número que realmente existia, revelando o caráter fechado de um sistema incapaz de se autoverificar
    • A doutrina do bombardeio de precisão da Segunda Guerra Mundial também, obcecada pela eficiência, perdeu o significado do alvo e passou a ser chamada de ‘fanatismo tecnológico (technological fanaticism)’
  • O manual de targeting da Força Aérea dos EUA de 1998 enfatizava o “pensamento racional baseado em fatos e conclusões”, mas
    • nas operações reais, ‘pacotes de alvo (TIP)’ baseados em PowerPoint eram confirmados por citação circular (circular reporting) sem verificação
    • Na Guerra do Kosovo, em 1999, o bombardeio por engano da embaixada chinesa ficou registrado como um caso emblemático desse tipo de erro procedimental

Eliminação do julgamento e o ‘duplo vínculo burocrático’

  • Organizações precisam de alguém que interprete exceções ao mesmo tempo em que segue regras,
    • mas, como reconhecer julgamento enfraquece a autoridade das regras, tenta-se quantificar e proceduralizar o julgamento
    • O historiador Theodore Porter chamou isso de “Trust in Numbers”
  • Em seu livro The Technological Republic, o CEO da Palantir, Alex Karp,
    • escreve que “o software é o timoneiro, e o hardware é o meio de executar as recomendações da IA”
    • apresenta como ideal um modelo de ‘ação coletiva autônoma (bee swarm)’ que elimina o julgamento humano intermediário
    • no entanto, isso leva a uma proceduralização completa sem espaço para interpretação, isto é, a uma ‘burocracia frágil’
  • Reuniões, relatórios e revisões não eram ineficiência, mas os únicos pontos em que o julgamento podia intervir,
    • porém o Maven os substituiu por um quadro Kanban de workflow em software, eliminando a margem para julgamento

A causa estrutural do bombardeio da escola em Minab

  • No pacote de alvo, o edifício estava classificado como instalação militar,
    • mas na realidade estava registrado como escola no Google Maps e em um banco de dados comercial iraniano
    • No entanto, em uma velocidade decisória de 1.000 casos por hora, ninguém pesquisou ou verificou isso
  • Sem aprovação do Congresso, foram atacados 6.000 alvos em duas semanas, e um deles era uma escola primária
    • Após o incidente, o debate se concentrou no “erro do Claude”,
      • encobrindo responsabilidades políticas e jurídicas centrais, como a legalidade da guerra, a existência ou não de aprovação do Congresso e a possibilidade de crimes de guerra
  • O enquadramento como “problema de IA” funciona como um refúgio que oculta decisões e responsabilidades humanas
    • Alguém comprimiu a kill chain e tratou reflexão como ‘latência (latency)’,
      • projetando um sistema que chamou de ‘alta qualidade’ uma decisão de alvos a 1.000 por hora
    • Todas essas decisões foram tomadas por humanos, e a IA não pode assumir essa responsabilidade

1 comentários

 
GN⁺ 2026-03-28
Opiniões do Hacker News
  • O Maven é uma ferramenta criada para ser usada no meio da guerra
    Quando os dois lados estão em combate, economizar alguns minutos equivale a salvar vidas
    Mas este ataque foi um ataque surpresa, não uma situação de combate em andamento. Numa situação em que ninguém estava reagindo, economizar tempo não salvou vidas
    A identificação do alvo deveria ter sido feita com mais cuidado, e humanos deveriam ter verificado várias vezes. A escola era claramente uma escola, e tinha até site
    Passar para o próximo alvo com apenas três cliques é claramente erro humano. Houve tempo suficiente para evitar esse tipo de engano
    Seja por excesso de confiança na ferramenta ou por desprezo pela vida de civis, o resultado foi a morte de meninas pequenas
    Espero que as pessoas que tomaram essa decisão sejam responsabilizadas

    • É possível que tanto o excesso de confiança na ferramenta quanto o desprezo pela vida de civis tenham influenciado
      Os EUA iniciaram guerras com o objetivo de desestabilização nacional e, nesse processo, ignoraram vítimas civis
      É como se eu colocasse fogo na minha casa e depois dissesse: “eu não sabia que aquilo era uma creche”
      No passado, durante a chamada “guerra ao terror”, também houve muitos casos de bombardeio de salões de casamento seguidos da desculpa de que “foi um erro”
    • Não consegui encontrar o site da escola e confirmei que ela também não aparecia no Google Maps
      Mas esse tipo de informação online não é base confiável para seleção de alvos
      A identificação deveria ter sido feita com informação direta, como observação por satélite. Uma escola tem padrões regulares de atividade e pareceria diferente de uma instalação militar
      Provavelmente designaram a base inteira como uma única unidade e confundiram o prédio da escola com parte da base
      Depois que a ordem foi dada, pode ter havido pressão de tempo. De qualquer forma, isto foi uma tragédia
    • Pela análise do New York Times, o prédio originalmente fazia parte da base e, externamente, também parecia integrar o complexo
      Se foi apenas um bombardeio por engano em meio a milhares de saídas, a taxa de erro é relativamente baixa, mas desta vez foi uma falha evidente
      Ainda assim, a alegação de que “não houve revisão suficiente” tem base fraca. De fato, pessoas de dentro disseram que esse alvo deveria ter sido removido da lista
    • É incorreto dizer que “havia tempo suficiente”. Oportunidades de reunir altos funcionários iranianos num só lugar são raras, e a operação ocorreu sob restrição de tempo
    • Agradeço por você ter organizado com clareza o ponto principal que queria transmitir
      Por causa dessa natureza de ataque surpresa, a responsabilidade recai integralmente sobre quem planejou, aprovou e executou
      A pergunta “por que as crianças estavam na escola?” é fruto de ignorância. O Irã tem um sistema de fim de semana diferente, e não havia como prever um ataque surpresa
      Quanto mais facilmente se usa lethal force, mais vítimas inocentes surgem
      Também houve casos de Israel em que metadados do WhatsApp foram usados para rastrear a localização de homens adultos e atacá-los
      Esse método não é diferente do de 20 anos atrás, e um dia uma bomba dessas pode cair sobre nossa casa também
  • Houve algo parecido algumas semanas atrás
    Enquanto EUA e Israel atacavam instalações policiais iranianas, bombardearam um parque de Teerã com “Police” no nome (Police Park)
    Na prática, era apenas um parque comum
    Vídeo relacionado, fonte adicional
    Se você pedir para uma IA “listar 100 instalações policiais de Teerã”, o resultado seria algo assim. Há fortes indícios de que IA foi usada na seleção de alvos

    • Mas não há prova sólida de que o “Police Park” realmente tenha sido bombardeado. Ele existe, mas a história parece fabricada
  • Isso se repete porque os EUA são um Estado moral e eticamente falido
    O bombardeio do abrigo de Amiriyah também é um exemplo disso

    • Para parar esse tipo de violência, não deveríamos ao menos fazer um boicote a produtos americanos?
  • Foi a primeira vez que vi no artigo a afirmação de que “o Claude, da Anthropic, designou a escola como alvo”
    Até agora, muitas reportagens apontavam procedimentos obsoletos e erros de informação, mais do que o uso de IA, como causa

    • Mas tanto o The Guardian quanto o Washington Post já haviam noticiado no início de março que o Claude foi usado nos ataques ao Irã
    • Eu também ouvi essa alegação em vários lugares
    • Há muita confusão e mal-entendido nessa questão
      O Claude pode rodar no Amazon Bedrock e, nesse caso, não é uma API operada diretamente pela Anthropic; o modelo roda dentro do datacenter do cliente
      Um fornecedor como a Palantir pode escolher qualquer modelo usar, e pode ter usado Claude via Bedrock
      Como a Anthropic não tem acesso à telemetria nesses contratos, ela não consegue provar como o modelo foi realmente usado
      No fim, dizer que “Claude foi usado” pode ser, tecnicamente, verdade ou não — é um red herring
  • Também vale mencionar que o autor do artigo já havia tratado desse tema antes em seu texto no Substack

  • Será que alguém realmente acreditou que a culpa era da IA?
    Em exércitos modernos, LLMs costumam ser usados como ferramenta para fugir da responsabilização
    Se houvesse um alvo claro, uma lista documentada já estaria preparada
    Mas agora a abordagem parece ser algo como “vamos soltar o máximo de bombas possível e o computador que se vire”
    A realidade é que matar passou a ter prioridade sobre objetivos estratégicos

  • O conteúdo do artigo foi interessante
    A frase “os militares dos EUA vêm tentando reduzir o intervalo entre observação e destruição” parece um tanto enviesada, mas mostra bem o quanto a fog of war ficou mais densa
    Os primeiros parágrafos até pareceram revigorantes

  • Foi marcante a ideia de que “AI-washing agora é usado não só para demissões, mas também para a guerra”

    • O maior papel da IA é remover responsabilidade e propriedade
  • Antes era Deus, depois a natureza, e agora a IA
    Os humanos têm um problema fundamental de evitar responsabilidade pelos próprios atos
    Talvez toda a era da industrialização e dos computadores possa ser vista como uma tentativa de eliminar essa responsabilidade de forma permanente

  • No fim, em qualquer caso, os crimes de guerra dos EUA não podem ser justificados
    O fato de nem conseguirem se desculpar direito talvez acabe sendo uma encruzilhada histórica para a qual olharemos de volta no futuro