- Pete Hegseth ordenou ao Departamento de Defesa que classificasse a Anthropic como empresa de risco à cadeia de suprimentos de segurança nacional e proibisse o uso da Anthropic por todos os fornecedores que fazem negócios com as Forças Armadas dos EUA
- Ele exigiu acesso irrestrito aos modelos para todos os fins legais de defesa, mas criticou a Anthropic por não ter aceitado isso
- O presidente Trump ordenou pelo Truth Social a interrupção imediata do uso da tecnologia da Anthropic por todos os órgãos federais, concedendo um período de transição de 6 meses
- Em negociações que duraram vários meses, a Anthropic vinha exigindo salvaguardas para impedir que seus modelos fossem usados em vigilância doméstica em larga escala e no desenvolvimento de armas autônomas sem intervenção humana, mas o Departamento de Defesa rejeitou essas condições
- O Claude é atualmente o único modelo de IA usado em sistemas sigilosos das Forças Armadas dos EUA e já foi utilizado na operação de captura de Maduro, o que deve tornar a transição consideravelmente difícil
- Esta medida é o primeiro caso em que uma designação de risco à cadeia de suprimentos foi aplicada a uma empresa americana, estabelecendo um precedente importante na relação entre empresas de IA e segurança nacional
Declaração oficial do secretário de Defesa Pete Hegseth
- Ele criticou a Anthropic e seu CEO, Dario Amodei, dizendo que tentaram se esconder por trás da retórica do "altruísmo eficaz (effective altruism)" para exercer poder de veto sobre as Forças Armadas dos EUA
- O Departamento de Defesa vem exigindo direito de acesso completo e irrestrito aos modelos para todos os fins legais, e enfatizou que essa posição não vai mudar
- Declarou que os termos de uso da Anthropic não podem ter prioridade sobre a segurança, prontidão de combate e vidas dos combatentes dos EUA
- Com efeito imediato, nenhum contratante, fornecedor ou parceiro que negocie com as Forças Armadas dos EUA poderá realizar atividades comerciais com a Anthropic
- A Anthropic deverá continuar prestando serviços ao Departamento de Defesa por até 6 meses para permitir uma transição tranquila
- Afirmou que esta é a decisão final, dizendo que “os combatentes dos Estados Unidos jamais serão reféns dos caprichos ideológicos das big techs”
Contexto da disputa: meses de negociações
- A Anthropic e o Departamento de Defesa passaram por meses de negociações tensas sobre as condições de uso do Claude pelos militares
- A Anthropic se mostrou aberta a ajustar sua política de uso, mas insistiu em duas salvaguardas: impedir que os modelos fossem usados para vigilância em massa contra americanos e para o desenvolvimento de armas que disparam sem intervenção humana
- O Departamento de Defesa considerou isso uma restrição excessiva, argumentando que há muita zona cinzenta na definição de vigilância em massa e armas autônomas, o que tornaria a operação inviável na prática
- O Departamento de Defesa também está negociando com OpenAI, Google e xAI o uso de modelos sob o padrão de “todos os fins legais (all lawful purposes)”
- Foi reportado que altos funcionários do Departamento de Defesa há muito tempo demonstravam insatisfação com a Anthropic e aproveitaram ativamente a oportunidade para um confronto público
Reunião direta entre Hegseth e Amodei (24 de fevereiro)
- Hegseth informou a Amodei que o Departamento de Defesa escolheria entre designar risco à cadeia de suprimentos ou acionar a Defense Production Act
- A Defense Production Act é uma lei da década de 1950 que concede poder para obrigar empresas a produzir determinados produtos em emergências nacionais
- Sobre o clima da reunião, uma autoridade disse que “não foi caloroso”, enquanto outra fonte afirmou que foi “educado”, sem elevação de voz
- Hegseth elogiou o Claude diante de Amodei, mas disse que nenhuma empresa pode ditar condições às decisões operacionais do Departamento de Defesa nem contestar casos de uso individuais
- Hegseth mencionou de forma específica a alegação do Departamento de Defesa de que, durante a operação Maduro, a Anthropic levantou preocupações à Palantir sobre o uso do Claude, mas Amodei negou isso
- Da reunião participaram várias autoridades de alto escalão, incluindo o vice-secretário de Defesa Steve Feinberg, o subsecretário de Pesquisa e Engenharia Emil Michael e o subsecretário de Aquisições Michael Duffey
Recusa final de Amodei e reação do Departamento de Defesa
- Amodei rejeitou na quinta-feira a “melhor e última oferta” do Departamento de Defesa, afirmando que “em consciência, não pode concordar com suas exigências”
- Emil Michael chamou Amodei de “mentiroso” e de alguém com “complexo de deus”, acusando-o de ter concordado em colocar a segurança nacional em risco
- Mesmo após a reunião, a Anthropic manteve um tom conciliador, afirmando que continua tendo conversas de boa-fé sobre a política de uso para que possa seguir apoiando as missões de segurança nacional do governo
Importância estratégica do Claude e dificuldades da transição
- O Claude é atualmente o único modelo de IA usado em sistemas sigilosos das Forças Armadas dos EUA
- Foi usado na operação de captura de Maduro por meio de uma parceria com a Palantir e também pode ser utilizado em uma possível operação militar contra o Irã
- Autoridades do Departamento de Defesa também reconhecem a capacidade do Claude e descreveram a transição como uma “dor enorme”
- Uma autoridade disse: “o único motivo pelo qual ainda estamos conversando é que precisamos deles, e precisamos agora; o problema é que eles são tão bons assim”
- O valor do contrato da Anthropic com o Departamento de Defesa é de até US$ 200 milhões, uma fração muito pequena da receita anual de US$ 14 bilhões
- No entanto, como a Anthropic afirma que 8 das 10 maiores empresas dos EUA usam o Claude, o efeito em cadeia dessa designação de risco à cadeia de suprimentos deve ser amplo
Modelos alternativos e movimento dos concorrentes
- A xAI de Elon Musk fechou recentemente um contrato para introduzir o Grok em ambientes sigilosos, mas ainda não está claro se conseguirá substituir totalmente o Claude
- O Departamento de Defesa está acelerando discussões para transferir modelos da OpenAI e do Google de ambientes não sigilosos para sistemas sigilosos
- Uma alta autoridade do governo reconheceu que modelos concorrentes estão “um pouco atrás” em aplicações governamentais especializadas, o que dificulta uma mudança abrupta
- OpenAI, Google e xAI já concordaram em remover salvaguardas em sistemas não sigilosos, mas seus modelos ainda não são usados em trabalhos sigilosos
Reação da OpenAI
- O CEO da OpenAI, Sam Altman, anunciou em um memorando na sexta-feira que a empresa tem as mesmas linhas vermelhas da Anthropic
- Ele afirmou que a IA não deve ser usada para vigilância em massa nem para armas letais autônomas, e que decisões automatizadas de alto risco devem ter intervenção humana
- A OpenAI também mantém um contrato separado de US$ 200 milhões com o Departamento de Defesa, mas voltado a trabalhos não sigilosos
Declaração do presidente Trump
- No Truth Social, ele ordenou a “interrupção imediata do uso da tecnologia da Anthropic por todos os órgãos federais”
- Declarou que “não precisamos, não queremos e nunca mais faremos negócios”
- Chamou a Anthropic de “lunáticos de esquerda” e classificou como um “erro desastroso” a tentativa de forçar o Departamento de Defesa a seguir termos de uso em vez da Constituição
Reações políticas e preocupações
- O senador Mark Warner, vice-presidente do Comitê de Inteligência do Senado, criticou a medida de Trump
- Ele expressou séria preocupação sobre se decisões de segurança nacional estão sendo tomadas com base em considerações políticas, e não em análise cuidadosa
- Advertiu que ameaçar e menosprezar empresas americanas como pretexto para direcionar contratos a fornecedores preferidos gera enorme risco ao país
- Também foram levantadas preocupações sobre a possibilidade de migração para modelos que alguns órgãos federais já identificaram como ameaças à confiabilidade, segurança operacional e segurança cibernética
Posição da Anthropic e perspectivas futuras
- Em um ensaio de janeiro, Dario Amodei apontou como preocupação central o risco de haver “muito poucos dedos sobre o botão”, alertando para um cenário em que poucos humanos poderiam operar exércitos de drones sem cooperação de outras pessoas
- A Anthropic planeja uma oferta pública inicial (IPO) neste ano, e ainda é incerto o impacto do conflito com o governo sobre os investidores
- Amodei afirmou que, mesmo após enfrentar o governo Trump, o valuation e a receita da Anthropic continuaram crescendo
- Essa designação de risco à cadeia de suprimentos, antes aplicada apenas a empresas de países adversários como Rússia e China, é considerada a primeira do tipo contra uma empresa americana
- A Palantir também vinha usando o Claude em trabalhos sigilosos, portanto também precisará migrar para modelos concorrentes
3 comentários
Estados Unidos “China”
Que desagradável, desculpa
Comentários do Hacker News
Acho que o DoW (Department of War) e a Anthropic já tinham um contrato, com cláusulas claras sobre o que era permitido e proibido
Mas agora o DoW está tentando reverter esses termos. Ao reler a declaração oficial do Dario, fica claro que os casos de uso alegados pelo DoW nem faziam parte do acordo original
No fim, a Anthropic está apenas cumprindo o contrato inicial, e parece que o DoW está tentando alterar o contrato de má-fé
Os termos originais foram aceitos pelo Pentágono, e agora o Pentágono está tentando mudá-los unilateralmente
É a mesma lógica de dizer para não usar canos com chumbo para água potável
Parece contraditório dizer que é uma empresa tão perigosa a ponto de ameaçar a segurança nacional e, ao mesmo tempo, continuar usando-a pelos próximos 6 meses
A postura da Anthropic de manter seus princípios é impressionante. É o tipo de empresa com a qual eu gostaria de trabalhar
Apoio a posição da Anthropic de não se envolver em letalidade nem vigilância
Como veterano patriota dos EUA, acho que seria melhor a Anthropic se mudar para a Europa
Como disse Rutger Bregman, a Europa controla o gargalo de hardware de IA por meio da ASML, e se a Anthropic se juntar a isso, pode formar a base de uma superpotência de IA (link do tuíte)
Essa medida pode ser um golpe fatal para a Anthropic
Se todas as empresas que fazem negócios com o DoD forem proibidas de atividades comerciais com a Anthropic, há risco de o Claude ser removido de plataformas de nuvem como AWS, Google e Microsoft
As restrições exigidas pela Anthropic são apenas duas
(1) proibição de vigilância doméstica em larga escala, (2) intervenção humana obrigatória em decisões letais
Isso parece até moderado demais (declaração oficial)
Tenho a sensação de que esse tipo de tema é difícil de tratar no HN
Discussões políticas devem ser evitadas, mas este caso é um exemplo de ideologia e política afetando diretamente a tecnologia
Mas as diretrizes do HN dizem “interprete com boa-fé”, então esse tipo de assunto se torna inerentemente difícil de tratar
Discutir a relação entre tecnologia e políticas públicas sempre foi bem-vindo
A frase “todas as empresas que negociam com as forças armadas dos EUA estão proibidas de atividades comerciais com a Anthropic” é chocante
Fico me perguntando se isso impediria AWS ou GCP de revender o Claude
Universidades como MIT, Stanford e Caltech, que recebem verbas de pesquisa do governo, talvez também tenham de parar de usar o Claude
Como latino-americano, eu antes torcia pelos EUA, mas agora não mais
Os EUA têm uma tendência a tratar a América Latina de forma coercitiva, e um mundo liderado pela China parece até menos agressivo
O macarthismo (McCarthyism) na era Truman, em 1947, começou com verificações de lealdade e evoluiu para listas negras e prisões (link da wiki)
A situação atual parece uma repetição daquele período. Se você não seguir a linha do governo, entra em lista negra ou sofre sanções