- O Departamento de Defesa dos EUA designou oficialmente a Anthropic como risco à cadeia de suprimentos e adotou medidas para bloquear transações com contratadas parceiras do Pentágono
- Essa designação normalmente é aplicada a empresas de países adversários estrangeiros, sendo um dos primeiros casos em que foi aplicada a uma empresa americana
- Enquanto o Departamento de Defesa quer poder usar a IA para todos os usos legais, a Anthropic exige garantias explícitas de que sua tecnologia não será usada em armas autônomas nem vigilância doméstica em massa
- Há possibilidade de impacto amplo também sobre parceiras e investidoras da Anthropic, como Lockheed Martin, Amazon e Google
- A Anthropic já sinalizou resposta judicial contra essa designação, e há análises de que isso pode gerar um efeito inibidor na relação entre o setor de IA e o governo
Designação oficial e contexto
- O Departamento de Defesa notificou formalmente a diretoria da Anthropic na quinta-feira, concluindo que a empresa e suas ferramentas de IA constituem uma ameaça à segurança
- Um alto funcionário do Departamento de Defesa afirmou: "Não podemos permitir que um fornecedor interfira na cadeia de comando para restringir o uso legítimo de capacidades essenciais e colocar militares em risco"
- O secretário de Defesa Pete Hegseth havia sinalizado na semana passada a designação de risco à cadeia de suprimentos, mas os dois lados continuaram negociando em busca de um acordo
Divergência entre as posições
- O Pentágono exige que a Anthropic permita o uso de sua IA para todos os usos legais
- A Anthropic exige garantias explícitas de que sua tecnologia não será usada em armas autônomas nem em vigilância doméstica em massa
- Na semana passada, a Anthropic anunciou que vai contestar judicialmente essa designação
Alcance da designação e controvérsia legal
- A designação de risco à cadeia de suprimentos pode ser aplicada de forma muito ampla ou restrita
- O anúncio feito por Hegseth na semana passada determinava que todas as empresas que cooperam com os militares não poderiam negociar com a Anthropic, e alguns analistas apontam que isso ultrapassa a autoridade legal do Pentágono
- Segundo esses analistas, o Departamento de Defesa só poderia instruir as empresas a não usar o Claude em trabalhos para o Pentágono
- Sendo um dos primeiros casos em que essa designação foi aplicada a uma empresa americana, há alertas de que isso pode produzir um efeito inibidor sobre outras empresas que pretendam negociar com o governo
Memorando interno do CEO da Anthropic
- Segundo reportagem do The Information, em um memorando enviado aos funcionários na semana passada, o CEO Dario Amodei escreveu que o motivo de o governo mirar a Anthropic seria o fato de a empresa não ter enviado "louvores ditatoriais a Trump" e de ter se oposto à agenda de IA do governo
- O memorando também criticava a concorrente OpenAI, que mantém contrato com o Departamento de Defesa para uso em sistemas confidenciais
- Após reação negativa de funcionários, a OpenAI acrescentou explicitamente nesta semana uma cláusula de proibição de vigilância ao contrato
Situação atual de uso militar
- O Claude, da Anthropic, era até então a única IA aprovada para uso em ambientes confidenciais, e recentemente a xAI, de Elon Musk, também obteve aprovação
- O Claude está sendo usado atualmente pelos militares em operações no Irã e também já foi utilizado na operação de captura do ex-líder venezuelano Nicolás Maduro
- A Anthropic mantém parceria com a empresa de data mining Palantir, que fornece software ao Departamento de Defesa
Impacto sobre parceiras e investidoras
- A medida pode trazer consequências amplas para parceiras e investidoras da Anthropic, como Lockheed Martin, Amazon e Google
1 comentários
Comentários do Hacker News
Isso provavelmente fará com que empresas americanas passem a ter medo de firmar contratos com o governo
Se o governo quiser, em vez de rescindir ou renegociar contratos existentes, pode simplesmente empurrar a situação para uma proibição de negociar com todo um setor específico
Muitos profissionais de tecnologia tentam evitar falar de política, mas este é um exemplo de como, no fim, a política volta para engolir o setor de tecnologia como um bumerangue
A sociedade civil deveria estar seriamente preocupada com esse tipo de ataque
Uma vez criado, esse poder inevitavelmente acaba voltando para o campo oposto
Os EUA já estão caminhando para uma sociedade de controle no nível da Alemanha nazista, e mais da metade dos cidadãos apoia isso
então uma designação como essa de ‘risco à cadeia de suprimentos’ não vai gerar qualquer alerta
Como cruza linhas vermelhas que governos anteriores não cruzavam sem sofrer consequência alguma, agora parece nem se importar mais
O fechamento da USAID é um exemplo representativo: pela lógica simplista de “não vamos gastar impostos para ajudar estrangeiros”, acabaram jogando fora até os interesses dos próprios EUA
tuíte sobre o Departamento de Defesa ter designado a Anthropic como risco à cadeia de suprimentos e a
matéria da Reuters em que a Anthropic sinaliza resposta judicial
O problema foi tentar controlar as condições enquanto fazia um pacto com o diabo
Ainda assim, é digno de reconhecimento o fato de ter tentado manter suas próprias linhas vermelhas sobre o uso da tecnologia
O problema está no lado humano, que não leu as cláusulas em detalhe
Eles também fazem muita coisa em áreas não combatentes, então cooperar nesses campos não é necessariamente ruim
Fico curioso para saber que escolha os signatários do notdivided.org farão agora
ela pode até ter manipulado diretamente a situação
Isso também está claramente indicado no artigo da Wikipédia
especialmente porque eles já trabalharam com empresas de reputação notoriamente ruim
Só uso a versão gratuita para testes simples, mas até agora estou bem mais satisfeito
Ele atende bem ao que eu preciso, então foi fácil cancelar minha assinatura do ChatGPT
Ela usa arquivos locais como se fossem memória e permite acesso imediato com um único comando
No fim, talvez ele nem possa mais operar nos EUA e precise se mudar para o exterior
Se vier mais uma decisão de confisco de ativos corporativos, aí sim isso seria uma prova clara
é interessante como as respostas variam muito e como a amplitude da negação é grande
Mas, se alguns cedem (por exemplo, a OpenAI), isso vira o novo padrão e cria o próximo alvo