9 pontos por GN⁺ 2026-02-28 | 3 comentários | Compartilhar no WhatsApp
  • Pete Hegseth ordenou ao Departamento de Defesa que classificasse a Anthropic como empresa de risco à cadeia de suprimentos de segurança nacional e proibisse o uso da Anthropic por todos os fornecedores que fazem negócios com as Forças Armadas dos EUA
  • Ele exigiu acesso irrestrito aos modelos para todos os fins legais de defesa, mas criticou a Anthropic por não ter aceitado isso
  • O presidente Trump ordenou pelo Truth Social a interrupção imediata do uso da tecnologia da Anthropic por todos os órgãos federais, concedendo um período de transição de 6 meses
  • Em negociações que duraram vários meses, a Anthropic vinha exigindo salvaguardas para impedir que seus modelos fossem usados em vigilância doméstica em larga escala e no desenvolvimento de armas autônomas sem intervenção humana, mas o Departamento de Defesa rejeitou essas condições
  • O Claude é atualmente o único modelo de IA usado em sistemas sigilosos das Forças Armadas dos EUA e já foi utilizado na operação de captura de Maduro, o que deve tornar a transição consideravelmente difícil
  • Esta medida é o primeiro caso em que uma designação de risco à cadeia de suprimentos foi aplicada a uma empresa americana, estabelecendo um precedente importante na relação entre empresas de IA e segurança nacional

Declaração oficial do secretário de Defesa Pete Hegseth

  • Ele criticou a Anthropic e seu CEO, Dario Amodei, dizendo que tentaram se esconder por trás da retórica do "altruísmo eficaz (effective altruism)" para exercer poder de veto sobre as Forças Armadas dos EUA
  • O Departamento de Defesa vem exigindo direito de acesso completo e irrestrito aos modelos para todos os fins legais, e enfatizou que essa posição não vai mudar
  • Declarou que os termos de uso da Anthropic não podem ter prioridade sobre a segurança, prontidão de combate e vidas dos combatentes dos EUA
  • Com efeito imediato, nenhum contratante, fornecedor ou parceiro que negocie com as Forças Armadas dos EUA poderá realizar atividades comerciais com a Anthropic
  • A Anthropic deverá continuar prestando serviços ao Departamento de Defesa por até 6 meses para permitir uma transição tranquila
  • Afirmou que esta é a decisão final, dizendo que “os combatentes dos Estados Unidos jamais serão reféns dos caprichos ideológicos das big techs”

Contexto da disputa: meses de negociações

  • A Anthropic e o Departamento de Defesa passaram por meses de negociações tensas sobre as condições de uso do Claude pelos militares
  • A Anthropic se mostrou aberta a ajustar sua política de uso, mas insistiu em duas salvaguardas: impedir que os modelos fossem usados para vigilância em massa contra americanos e para o desenvolvimento de armas que disparam sem intervenção humana
  • O Departamento de Defesa considerou isso uma restrição excessiva, argumentando que há muita zona cinzenta na definição de vigilância em massa e armas autônomas, o que tornaria a operação inviável na prática
  • O Departamento de Defesa também está negociando com OpenAI, Google e xAI o uso de modelos sob o padrão de “todos os fins legais (all lawful purposes)”
  • Foi reportado que altos funcionários do Departamento de Defesa há muito tempo demonstravam insatisfação com a Anthropic e aproveitaram ativamente a oportunidade para um confronto público

Reunião direta entre Hegseth e Amodei (24 de fevereiro)

  • Hegseth informou a Amodei que o Departamento de Defesa escolheria entre designar risco à cadeia de suprimentos ou acionar a Defense Production Act
  • A Defense Production Act é uma lei da década de 1950 que concede poder para obrigar empresas a produzir determinados produtos em emergências nacionais
  • Sobre o clima da reunião, uma autoridade disse que “não foi caloroso”, enquanto outra fonte afirmou que foi “educado”, sem elevação de voz
  • Hegseth elogiou o Claude diante de Amodei, mas disse que nenhuma empresa pode ditar condições às decisões operacionais do Departamento de Defesa nem contestar casos de uso individuais
  • Hegseth mencionou de forma específica a alegação do Departamento de Defesa de que, durante a operação Maduro, a Anthropic levantou preocupações à Palantir sobre o uso do Claude, mas Amodei negou isso
  • Da reunião participaram várias autoridades de alto escalão, incluindo o vice-secretário de Defesa Steve Feinberg, o subsecretário de Pesquisa e Engenharia Emil Michael e o subsecretário de Aquisições Michael Duffey

Recusa final de Amodei e reação do Departamento de Defesa

  • Amodei rejeitou na quinta-feira a “melhor e última oferta” do Departamento de Defesa, afirmando que “em consciência, não pode concordar com suas exigências”
  • Emil Michael chamou Amodei de “mentiroso” e de alguém com “complexo de deus”, acusando-o de ter concordado em colocar a segurança nacional em risco
  • Mesmo após a reunião, a Anthropic manteve um tom conciliador, afirmando que continua tendo conversas de boa-fé sobre a política de uso para que possa seguir apoiando as missões de segurança nacional do governo

Importância estratégica do Claude e dificuldades da transição

  • O Claude é atualmente o único modelo de IA usado em sistemas sigilosos das Forças Armadas dos EUA
  • Foi usado na operação de captura de Maduro por meio de uma parceria com a Palantir e também pode ser utilizado em uma possível operação militar contra o Irã
  • Autoridades do Departamento de Defesa também reconhecem a capacidade do Claude e descreveram a transição como uma “dor enorme”
  • Uma autoridade disse: “o único motivo pelo qual ainda estamos conversando é que precisamos deles, e precisamos agora; o problema é que eles são tão bons assim
  • O valor do contrato da Anthropic com o Departamento de Defesa é de até US$ 200 milhões, uma fração muito pequena da receita anual de US$ 14 bilhões
  • No entanto, como a Anthropic afirma que 8 das 10 maiores empresas dos EUA usam o Claude, o efeito em cadeia dessa designação de risco à cadeia de suprimentos deve ser amplo

Modelos alternativos e movimento dos concorrentes

  • A xAI de Elon Musk fechou recentemente um contrato para introduzir o Grok em ambientes sigilosos, mas ainda não está claro se conseguirá substituir totalmente o Claude
  • O Departamento de Defesa está acelerando discussões para transferir modelos da OpenAI e do Google de ambientes não sigilosos para sistemas sigilosos
  • Uma alta autoridade do governo reconheceu que modelos concorrentes estão “um pouco atrás” em aplicações governamentais especializadas, o que dificulta uma mudança abrupta
  • OpenAI, Google e xAI já concordaram em remover salvaguardas em sistemas não sigilosos, mas seus modelos ainda não são usados em trabalhos sigilosos

Reação da OpenAI

  • O CEO da OpenAI, Sam Altman, anunciou em um memorando na sexta-feira que a empresa tem as mesmas linhas vermelhas da Anthropic
  • Ele afirmou que a IA não deve ser usada para vigilância em massa nem para armas letais autônomas, e que decisões automatizadas de alto risco devem ter intervenção humana
  • A OpenAI também mantém um contrato separado de US$ 200 milhões com o Departamento de Defesa, mas voltado a trabalhos não sigilosos

Declaração do presidente Trump

  • No Truth Social, ele ordenou a “interrupção imediata do uso da tecnologia da Anthropic por todos os órgãos federais”
  • Declarou que “não precisamos, não queremos e nunca mais faremos negócios”
  • Chamou a Anthropic de “lunáticos de esquerda” e classificou como um “erro desastroso” a tentativa de forçar o Departamento de Defesa a seguir termos de uso em vez da Constituição

Reações políticas e preocupações

  • O senador Mark Warner, vice-presidente do Comitê de Inteligência do Senado, criticou a medida de Trump
  • Ele expressou séria preocupação sobre se decisões de segurança nacional estão sendo tomadas com base em considerações políticas, e não em análise cuidadosa
  • Advertiu que ameaçar e menosprezar empresas americanas como pretexto para direcionar contratos a fornecedores preferidos gera enorme risco ao país
  • Também foram levantadas preocupações sobre a possibilidade de migração para modelos que alguns órgãos federais já identificaram como ameaças à confiabilidade, segurança operacional e segurança cibernética

Posição da Anthropic e perspectivas futuras

  • Em um ensaio de janeiro, Dario Amodei apontou como preocupação central o risco de haver “muito poucos dedos sobre o botão”, alertando para um cenário em que poucos humanos poderiam operar exércitos de drones sem cooperação de outras pessoas
  • A Anthropic planeja uma oferta pública inicial (IPO) neste ano, e ainda é incerto o impacto do conflito com o governo sobre os investidores
  • Amodei afirmou que, mesmo após enfrentar o governo Trump, o valuation e a receita da Anthropic continuaram crescendo
  • Essa designação de risco à cadeia de suprimentos, antes aplicada apenas a empresas de países adversários como Rússia e China, é considerada a primeira do tipo contra uma empresa americana
  • A Palantir também vinha usando o Claude em trabalhos sigilosos, portanto também precisará migrar para modelos concorrentes

3 comentários

 
cnaa97 2026-02-28

Estados Unidos “China”

 
kimjoin2 2026-03-01

Que desagradável, desculpa

 
GN⁺ 2026-02-28
Comentários do Hacker News
  • Acho que o DoW (Department of War) e a Anthropic já tinham um contrato, com cláusulas claras sobre o que era permitido e proibido
    Mas agora o DoW está tentando reverter esses termos. Ao reler a declaração oficial do Dario, fica claro que os casos de uso alegados pelo DoW nem faziam parte do acordo original
    No fim, a Anthropic está apenas cumprindo o contrato inicial, e parece que o DoW está tentando alterar o contrato de má-fé

    • Fica ainda mais claro no texto do Astral Codex Ten
      Os termos originais foram aceitos pelo Pentágono, e agora o Pentágono está tentando mudá-los unilateralmente
    • É completamente normal que um fornecedor imponha limites sobre como seu cliente pode usar o produto
      É a mesma lógica de dizer para não usar canos com chumbo para água potável
    • Para mudar o nome para Department of War, seria necessária aprovação do Congresso. O nome oficial continua sendo DoD
    • Este governo vem demonstrando uma postura não confiável em toda negociação. Vale tanto para comércio internacional quanto para contratos empresariais
    • O governo Trump já deixou de pagar contratados no passado. É difícil esperar que cumpra contratos desta vez também
  • Parece contraditório dizer que é uma empresa tão perigosa a ponto de ameaçar a segurança nacional e, ao mesmo tempo, continuar usando-a pelos próximos 6 meses

    • Esse comportamento não tem explicação racional. Parece apenas um movimento de pressão/extorsão (shakedown)
    • Vale lembrar que a Anthropic é atualmente a única empresa de IA operando em sistemas confidenciais do Pentágono (artigo do NYT)
    • Soa como chantagem mafiosa: “Bela IA, seria uma pena se algo acontecesse com ela...”
    • Este governo está agindo de forma previsível ao declarar emergências improvisadas
    • A estratégia típica de negociação do governo é fazer uma exigência extrema e depois fechar em um meio-termo favorável a si mesmo
  • A postura da Anthropic de manter seus princípios é impressionante. É o tipo de empresa com a qual eu gostaria de trabalhar

    • Claro, empresas podem mudar, mas a Anthropic de hoje merece respeito
    • Ao contrário de Google, Facebook e OpenAI, ela tem um diferencial claro em manter padrões éticos
    • Nos últimos 9 meses, a equipe de PR respondeu muito bem
    • Mas também não devemos esquecer que já existem vítimas de ataques americanos no exterior
  • Apoio a posição da Anthropic de não se envolver em letalidade nem vigilância
    Como veterano patriota dos EUA, acho que seria melhor a Anthropic se mudar para a Europa
    Como disse Rutger Bregman, a Europa controla o gargalo de hardware de IA por meio da ASML, e se a Anthropic se juntar a isso, pode formar a base de uma superpotência de IA (link do tuíte)

    • Mas, se a Anthropic realmente se mudasse para a Europa, os funcionários poderiam enfrentar dificuldades com idioma, família e vida cotidiana
    • Se a Europa pudesse ter criado o Claude, já o teria feito
    • O Canadá também é uma boa alternativa. Tem base de pesquisa em IA, como o instituto Mila, e mantém valores liberais
    • Ainda assim, é improvável que a empresa inteira se mude. Talvez só se o governo tentasse nacionalizar os modelos
  • Essa medida pode ser um golpe fatal para a Anthropic
    Se todas as empresas que fazem negócios com o DoD forem proibidas de atividades comerciais com a Anthropic, há risco de o Claude ser removido de plataformas de nuvem como AWS, Google e Microsoft

    • Mas, na prática, isso é inviável. As grandes empresas de nuvem são os principais investidores da Anthropic. No fim, o DoD provavelmente vai recuar para não passar vergonha
    • Na prática, a restrição vale apenas para projetos ligados ao governo. Ainda seria possível usar o Claude para trabalho interno
    • Do ponto de vista legal, o que fica proibido é cobrar em contratos do DoD ou incluir isso em soluções vendidas a ele
    • Ou seja, a AWS pode continuar oferecendo o Claude no Bedrock, mas não incluí-lo em contratos específicos para o DoD
    • No fim, isso só gera ineficiência em projetos governamentais; no setor privado, o uso deve continuar
    • Mesmo assim, como a maior parte da receita da Anthropic vem de grandes clientes corporativos, o dano de imagem é significativo
  • As restrições exigidas pela Anthropic são apenas duas
    (1) proibição de vigilância doméstica em larga escala, (2) intervenção humana obrigatória em decisões letais
    Isso parece até moderado demais (declaração oficial)

    • Mas algumas pessoas nem escondem a intenção de usar essa tecnologia contra a própria população
  • Tenho a sensação de que esse tipo de tema é difícil de tratar no HN
    Discussões políticas devem ser evitadas, mas este caso é um exemplo de ideologia e política afetando diretamente a tecnologia

    • É impossível discutir isso sem dizer que o governo está agindo de má-fé
      Mas as diretrizes do HN dizem “interprete com boa-fé”, então esse tipo de assunto se torna inerentemente difícil de tratar
    • Pela minha experiência, no HN a política não é proibida; o sentido era evitar discussões maliciosas
      Discutir a relação entre tecnologia e políticas públicas sempre foi bem-vindo
    • Na verdade, tudo é político. Tecnologia não é exceção
    • Ainda assim, é melhor evitar falar só de política. Já tem gente demais fazendo isso
    • A própria cultura hacker era originalmente um movimento político e ideológico. Está na hora de recuperar essa essência
  • A frase “todas as empresas que negociam com as forças armadas dos EUA estão proibidas de atividades comerciais com a Anthropic” é chocante
    Fico me perguntando se isso impediria AWS ou GCP de revender o Claude

    • Provavelmente sim, e especialmente a AWS pode até ser impedida de usá-lo internamente
      Universidades como MIT, Stanford e Caltech, que recebem verbas de pesquisa do governo, talvez também tenham de parar de usar o Claude
    • No fim, os advogados vão disputar a interpretação, mas sistemas ligados a software de risco na cadeia de suprimentos não poderão ser vendidos ao DoD
    • O problema maior é que, por essa lógica, até software de código aberto poderia entrar na proibição
    • No fim, todo mundo vai ficar esperando uma injunction judicial
    • Na prática, parece que só empresas que fazem negócios com o DoD serão afetadas; clientes comuns devem continuar podendo usar
  • Como latino-americano, eu antes torcia pelos EUA, mas agora não mais
    Os EUA têm uma tendência a tratar a América Latina de forma coercitiva, e um mundo liderado pela China parece até menos agressivo

    • Também não se deve esquecer que os EUA foram os principais responsáveis por criar o terrorismo islâmico
    • Ainda assim, talvez Austrália ou uma UE unificada sejam alternativas melhores do que a China
  • O macarthismo (McCarthyism) na era Truman, em 1947, começou com verificações de lealdade e evoluiu para listas negras e prisões (link da wiki)
    A situação atual parece uma repetição daquele período. Se você não seguir a linha do governo, entra em lista negra ou sofre sanções

    • Lembra um pouco o que Jack Ma e a Alibaba passaram na China
    • Mas algumas pessoas ainda afirmam que “McCarthy estava certo”