5 pontos por GN⁺ 2026-03-07 | 1 comentários | Compartilhar no WhatsApp
  • O Departamento de Guerra dos EUA designou a Anthropic como um fator de risco na cadeia de suprimentos para a segurança nacional, e a empresa considera que a medida não é juridicamente justificável, preparando uma resposta legal
  • A carta do Departamento de Guerra afirma que o escopo da restrição de uso dos modelos Claude é muito limitado, aplicando-se apenas ao uso por clientes diretamente relacionado a contratos com o Departamento de Guerra
  • A lei relevante (10 USC 3252) existe com o objetivo de proteger o governo, e o secretário do Departamento de Guerra deve usar apenas os meios mais restritivos em grau mínimo
  • A Anthropic está discutindo com o Departamento de Guerra a continuidade da cooperação e formas de uma transição sem atritos, mantendo os princípios de exceção sobre armas autônomas e vigilância doméstica em larga escala
  • A empresa enfatiza o objetivo comum de apoiar para que militares dos EUA em guerra e especialistas em segurança não percam o acesso às ferramentas de que precisam, e de ampliar o uso de IA na segurança nacional

Designação de risco na cadeia de suprimentos pelo Departamento de Guerra

  • O Departamento de Guerra informou que classificou a Anthropic como um risco na cadeia de suprimentos para a segurança nacional dos EUA
    • A Anthropic entende que essa medida não é legalmente válida e pretende contestá-la judicialmente
  • Segundo a redação da carta do Departamento de Guerra, essa designação se aplica apenas a clientes que usam os modelos Claude como parte direta de contratos com o Departamento de Guerra
    • Mesmo que tenham contrato com o Departamento de Guerra, não há restrições ao uso do Claude sem relação com esse contrato nem a transações com a Anthropic

Base legal e escopo de aplicação

  • A medida do Departamento de Guerra se baseia na seção 10 USC 3252, e essa lei exige o uso de medidas mínimas e restrições limitadas para proteger a cadeia de suprimentos
    • O objetivo da lei é proteger o governo, não punir fornecedores
  • Portanto, o alcance da designação é muito limitado e não afeta clientes fora do grupo de contratantes do Departamento de Guerra

Cooperação com o Departamento de Guerra e princípios de exceção

  • Nos últimos dias, a Anthropic discutiu com o Departamento de Guerra formas de manter a cooperação e os procedimentos de transição
    • A empresa vem apoiando o Departamento de Guerra em várias áreas, como análise de inteligência, modelagem e simulação, planejamento operacional e operações cibernéticas
  • A Anthropic mantém dois princípios de exceção para armas autônomas e vigilância doméstica em larga escala
    • A empresa deixou claro seu entendimento de que empresas privadas não devem se envolver em decisões sobre operações militares

Vazamento de postagem interna

  • A empresa pediu desculpas por uma postagem interna da companhia que vazou para a imprensa no dia anterior
    • A postagem foi escrita logo após a publicação do presidente na Truth Social, a postagem do secretário do Departamento de Guerra no X e o anúncio do contrato entre OpenAI e o Departamento de Defesa
    • A Anthropic afirmou que não vazou essa postagem e que não tinha intenção de agravar a situação
    • A postagem foi escrita há seis dias e é uma avaliação desatualizada que não reflete a situação atual

Suporte futuro e objetivo comum

  • A Anthropic planeja continuar apoiando para que militares dos EUA em guerra e especialistas em segurança nacional possam seguir usando as ferramentas de que precisam
    • A empresa pretende continuar fornecendo modelos e suporte técnico a custo nominal ao Departamento de Guerra e a órgãos de segurança
  • A empresa compartilha com o Departamento de Guerra o objetivo comum de fortalecer a segurança dos EUA e ampliar o uso governamental de IA
    • Todas as decisões futuras serão tomadas com base nessa premissa compartilhada

1 comentários

 
GN⁺ 2026-03-07
Opiniões do Hacker News
  • Impressiona o quanto a janela de Overton se deslocou nesse assunto
    Quando me formei em 2007, era comum empresas de tecnologia recusarem que seus sistemas fossem usados em guerras, e muitos conhecidos também evitavam trabalhar nessas empresas por motivos morais
    Mas agora a Anthropic quer estabelecer apenas duas exceções por razões práticas, não morais. E até isso é embalado com uma linguagem que soa como se quisessem apoiar a guerra, mas estivessem sendo forçados. O mundo realmente mudou muito

    • Isso me faz lembrar o curta-metragem alemão de 1969 Nicht löschbares Feuer (Inextinguishable Fire)
      Um filme anti-napalm que satiriza a situação em que trabalhadores não sabem que o produto que fabricam é, na verdade, uma arma
      A fala final, “aquilo que produzimos depende dos trabalhadores, estudantes e engenheiros”, continua válida até hoje
    • No filme Real Genius também havia a ideia de estudantes acabarem criando armas sem saber
      Antigamente esse tipo de história fazia parte da educação ética, mas hoje parece que até essas aulas desapareceram
    • Das duas exceções da Anthropic, apenas uma tem motivação moral
      Eles rejeitam a tecnologia de armas letais autônomas apenas porque ela ainda não evoluiu o bastante, com um claro “ainda não” implícito
      É melhor que a OpenAI, mas no fim continua sendo apenas a opção menos ruim
    • Depois de ver a tristeza que estudantes do ensino médio passaram com o caso do MH17, meus pensamentos sobre P&D ligado à guerra ficaram mais complexos
      Existe a realidade de que pesquisa em defesa pode ser necessária, mas sistemas automatizados de tomada de decisão se tornam perigosos quando escapam ao controle humano
      Acho que deveria haver obrigação legal de manter um ‘human-in-the-loop’
    • A atitude em relação à guerra muda conforme o contexto histórico
      A “guerra” de 2007 era o Iraque; a “guerra” de hoje inclui Gaza, Irã, Venezuela e até a possibilidade de invasões da Ucrânia ou de Taiwan
      Imagino que a Anthropic também esteja considerando esse contexto internamente
  • Na época da universidade, eu tinha um amigo que queria trabalhar na DARPA; quando perguntei sua visão ética, ele respondeu: “isso não é problema meu”
    Estudando nos EUA, senti que tanto a liderança da indústria quanto as universidades não têm interesse em pensamento crítico e educação ética, focando apenas em transformar pessoas em ferramentas técnicas
    Mesmo na semana de inovação em VR de Harvard, quase não havia fundadores nem desenvolvedores na sessão sobre “ética e direito”. A discussão sobre impacto social estava completamente excluída
    No fim, tive a sensação de que a loucura pelo dinheiro destruiu a capacidade de pensar da sociedade

    • Trabalhando no setor de AdTech, percebi que o código de anúncios que eu produzia poderia ser usado para manipulação eleitoral, antivacina e publicidade fraudulenta
      Se alguém morrer como resultado disso, acho que eu também carrego parte da responsabilidade
      Mas o problema é que, na prática, é difícil manter uma linha moral quando se precisa sobreviver. No fim, estamos todos no mesmo barco
    • Acho que essa insensibilidade ética está ligada ao declínio das humanidades
      Até num texto de George Orwell (link), ele dizia que educação científica sozinha não garante uma visão humana
    • Dizer que “fundadores ou CEOs não têm qualificação para participar de debates éticos” soa como arrogância meritocrática
    • Isso me faz lembrar a frase de von Braun: “onde o foguete cai não é assunto do meu departamento”
    • A febre da IA dos últimos anos destruiu por completo minha confiança na humanidade. A ganância está espalhada como o ar
  • Fiquei surpreso ao ver a frase “a Anthropic tem mais em comum com o Departamento de Defesa do que diferenças”

    • Depois da bomba atômica, o motivo para mudar “War Department” para “Defense Department” foi que a humanidade percebeu o peso de suas próprias criações
      Mas agora discutir alinhamento de IA (alignment) no mesmo contexto de “alinhamento com o departamento de guerra” é intelectualmente inadequado
      Entre os países atacados neste ano, nenhum representa uma ameaça existencial à humanidade. Pelo contrário, essas guerras aumentam riscos centrais
      Fico me perguntando por que não há mais vozes contrárias entre os pesquisadores
    • Se você interpretar a frase como “nós queremos um público obediente”, ela fica mais clara
    • Li o texto inteiro e fiquei chocado a ponto de perder as sobrancelhas
    • Visto de fora dos EUA, todo esse processo parece assustador
      A probabilidade de a IA ser nacionalizada para fins militares parece alta, e é contraditório a Anthropic dizer que sua tecnologia é mais perigosa que a bomba atômica enquanto firma parceria militar com a Palantir
    • Observando as atividades na Venezuela e no Irã, talvez “Defense” seja até a expressão menos orwelliana disponível
  • A fala da Anthropic sobre “combatente (warfighter)” me deixou em dúvida
    Será que só essas duas exceções bastam para preservar um limite ético?

    • A própria palavra ‘warfighter’ é estranha. Antes se dizia ‘servicemen’, mas agora parece haver ênfase numa imagem agressiva
    • Mesmo que não seja perfeito, acho que faz sentido mover dinheiro para uma opção um pouco mais ética
    • Na verdade, não há “lado bom” nessa história. As duas empresas visam buscar lucro e apenas embalam isso com PR
      A Anthropic, nessa situação, parece estar do lado “melhor”, mas ainda assim está lucrando com a indústria da guerra
    • No fim, isso é apenas uma estratégia de marketing, e eu diria que funcionou
    • Foi uma boa jogada de PR
  • Nada representa melhor a realidade orwelliana dos EUA em 2026 do que a palavra “warfighter”

    • Esse termo já é usado há mais de 20 anos. Na verdade, o nome novilíngue ‘Departamento de Defesa (DoD)’ é ainda mais orwelliano
    • Isso me faz lembrar o trecho do Tao Te Ching, capítulo 46: “Quando o Tao prevalece, cavalos de guerra aram os campos; quando o Tao não prevalece, cavalos de guerra se reproduzem nas fronteiras”
    • A fala de políticos de que “não estamos em guerra com o Irã” soa vazia
    • Quando Trump chamou uma nova indicação de “guerreiro MAGA”, foi no mesmo espírito
  • Cita o texto de Mike Masnick na Techdirt
    Em governos anteriores, a posição “queremos garantir que a IA não tome decisões de matar sem intervenção humana” seria uma condição de negociação normal
    Mas agora a situação virou uma em que o secretário de Defesa chama publicamente a empresa de “traidora”, o presidente ordena que todos os órgãos do governo suspendam seu uso, e o CEO precisa escrever uma carta de desculpas que parece bilhete de refém

  • Se poder e corrupção do governo não forem contidos, as empresas acabam inevitavelmente entrando nesses acordos
    No começo é por dinheiro e patriotismo, mas aos poucos elas se envolvem em coisas sem volta, e sair disso também se torna difícil
    Aí chega um novo CEO dizendo “o anterior era fraco, eu serei diferente”, repetindo o mesmo ciclo vicioso

  • Gostaria de dizer o seguinte às pessoas que querem fornecer tecnologia para a indústria da guerra
    “Tudo pode ser tirado de você, mas a consciência só se perde se você mesmo a abandonar”

    • A indústria de defesa não paga melhor do que o setor de tecnologia em geral
      Muitas vezes essas pessoas trabalham lá simplesmente por convicção de que estão ajudando o governo
  • Acho muito interessante como esse caso vai terminar tanto nos tribunais quanto no tribunal da opinião pública
    Considero um caso importante e espero que chegue ao resultado correto

  • O subsecretário do Departamento de Guerra Emil Michael declarou oficialmente que “não haverá negociação com a Anthropic” em comunicado oficial

    • Vale a pena ler também a posição que ele apresentou recentemente
      O tema é tratado em detalhe na entrevista à a16z news