- O governo dos EUA interrompeu totalmente o uso da tecnologia de IA da Anthropic, e o Departamento de Defesa a classificou como empresa de risco à segurança nacional
- Logo após o anúncio, a OpenAI assinou um contrato de fornecimento de IA para redes sigilosas com o Departamento de Defesa, surgindo como fornecedora substituta
- A Anthropic perdeu o contrato ao manter restrições de uso para armas autônomas e vigilância doméstica em larga escala, e anunciou medidas legais
- O governo Trump afirmou que garantiria acesso à IA para todos os fins legais, enquanto a Anthropic destacou preocupações com a segurança da tecnologia e violações de direitos humanos
- A medida é avaliada como um caso que intensifica o conflito em torno do direito de empresas de IA de impor limites ao uso militar
Medida do governo Trump para banir a Anthropic
- O presidente Trump ordenou a todas as agências federais que interrompessem o uso da tecnologia da Anthropic, e o Departamento de Defesa classificou a empresa como risco à cadeia de suprimentos de segurança nacional
- O presidente publicou no Truth Social: “A Anthropic colocou seus próprios termos de serviço acima da Constituição”, acrescentando que “o governo dos Estados Unidos não fará mais negócios com eles”
- Foi estabelecido um período de retirada gradual de 6 meses
- O secretário de Defesa Pete Hegseth incluiu a Anthropic na lista de proibição de negócios com as Forças Armadas dos EUA e contratadas, anunciando que faria a transição para “um serviço mais patriótico”
- O Departamento de Defesa usou a denominação reformulada para ‘Department of War’
Reação da Anthropic e resposta legal
- A Anthropic informou que pretende processar o caso, alegando que há pouca base legal para a classificação como risco à cadeia de suprimentos
- A empresa argumenta que a designação se aplica apenas ao uso do modelo Claude em contratos militares e não afeta negócios com outros clientes
- A Anthropic reafirmou sua posição contra vigilância doméstica e uso de armas totalmente autônomas
- Declarou que “os modelos atuais de IA não são confiáveis o suficiente para uso em armas totalmente autônomas, e a vigilância em massa viola direitos fundamentais”
- A empresa explicou que negociou com o Departamento de Defesa por vários meses, mas manteve duas exceções
OpenAI assina contrato com o Departamento de Defesa
- Logo após o anúncio de Trump, a OpenAI fechou um contrato de IA para redes sigilosas com o Departamento de Defesa
- O CEO Sam Altman anunciou que o contrato incluía “a proibição de vigilância doméstica e o princípio de responsabilidade humana pelo uso da força”
- Isso reflete as cláusulas de salvaguarda exigidas pela Anthropic
- OpenAI, Google, xAI e outras também mantêm contratos com o Departamento de Defesa e aceitaram a condição de permitir uso para “todos os fins legais”
Planos de IPO da Anthropic e impacto no mercado
- A Anthropic está preparando seu IPO para este ano com uma avaliação de US$ 380 bilhões
- O contrato com o Departamento de Defesa pode chegar a US$ 200 milhões e é pequeno em relação à receita total (US$ 14 bilhões), mas o impacto do conflito de políticas sobre a confiança dos investidores permanece incerto
- O CEO Dario Amodei afirmou que “o valor e a receita da empresa continuaram crescendo mesmo depois de manter sua posição sobre como a IA deve ser usada no campo de batalha”
Debate sobre restrições ao uso militar de IA
- O Departamento de Defesa deu à Anthropic um prazo para retirar as limitações do modelo (sexta-feira às 17h01 ET) e alertou que, em caso de recusa, o contrato seria rescindido
- O Departamento de Defesa também mencionou a possibilidade de acionar o Defense Production Act, promulgado durante a Guerra da Coreia
- O secretário Hegseth criticou a Anthropic por “tentar controlar as decisões operacionais das Forças Armadas dos EUA” e afirmou que “os militares americanos não se deixam levar pelos caprichos ideológicos das big techs”
- Emil Michael, subsecretário de Pesquisa e Engenharia do Departamento de Defesa, enfatizou que “o uso para vigilância doméstica e armas autônomas já é proibido pela legislação e pelas políticas federais”
- Especialistas independentes avaliam o caso como um conflito público incomum na história dos contratos do Pentágono
- “A IA ainda é uma tecnologia não comprovada, e este caso reflete essa característica”, segundo a análise
1 comentários
Opiniões do Hacker News
Isso pode acabar tornando a Anthropic popular entre pessoas que não apoiam o atual governo dos EUA
Por enquanto, ainda é preciso usar modelos dos EUA para consultas complexas, mas fico feliz que exista pelo menos uma empresa que dá para apoiar com a consciência tranquila
Quero apoiar empresas que não sejam usadas para drones de guerra ou vigilância em massa
Por isso, estou migrando a infraestrutura da empresa de MS 365 para Nextcloud on Hetzner
Não permitir vigilância em massa nem automação de assassinato deveria ser um critério básico
Fico curioso se já houve caso de uma empresa americana “migrar” completamente desse jeito
Se a Anthropic mantiver essa vantagem, acho que a base de clientes corporativos vai continuar crescendo
Pelo que entendi, isso tem a ver com a Anthropic ter proibido o uso para armas autônomas e vigilância doméstica
Na prática, acho pouco provável a viabilidade de um sistema de IA de controle total em escala nacional
(Edição posterior: foi adicionada uma piada sobre ficar pensando se vai a pé até o lava-rápido ou se vai de carro)
Parece estranho ver o governo ameaçando publicamente empresas privadas depois que as negociações fracassaram
Dá vontade de perguntar para onde foi a tal liberdade de expressão
Link para a postagem relacionada da conta oficial da Casa Branca no Twitter
Tweet da WhiteHouse
Link alternativo
Esse caso pode passar um sinal negativo para o setor como um todo
Se se espalhar a percepção de que estabelecer limites éticos claros leva à exclusão de contratos governamentais, as empresas passam a ter incentivo para deixar seus padrões de segurança vagos
É irônico que um órgão chamado “Departamento da Guerra” dependa de capacidade tecnológica
É ridículo ver gente incapaz de criar tecnologia criticando a Big Tech e ao mesmo tempo implorando por acesso à tecnologia
É admirável que a Anthropic não tenha cedido e tenha mantido seus princípios
Espero que a OpenAI também consiga promover mudanças internas de outra forma
No fim, a Anthropic pode acabar sendo a única big tech que não vendeu a alma
Há um movimento interessante em torno das falas de Trump
Alguns assessores dentro da Casa Branca estão ignorando suas declarações e mandando focar em política econômica
O estrategista político James Blair está liderando essa linha, e foi ele quem conduziu a campanha vitoriosa de Trump
Já houve casos no passado em que um presidente foi parcialmente controlado por assessores
Vale acompanhar que tipo de ameaça de fato se transforma em ação
Matéria relacionada: artigo da The Atlantic / Wikipedia de James Blair
Isso parece a melhor carta de recomendação possível para a Anthropic
Também houve comentário perguntando se isso não seria mais uma notícia falsa do tipo “navio-hospital gerado por IA a caminho da Groenlândia” que anda circulando