- O secretário de Defesa dos EUA entregou à Anthropic um ultimato para fornecer sua tecnologia de inteligência artificial sem restrições militares
- O Departamento de Defesa ameaçou que, se a Anthropic recusasse, ela seria designada como empresa de ‘risco para a cadeia de suprimentos (supply chain risk)’
- A Anthropic já declarou publicamente o princípio de proibir o uso para sistemas de armas autônomas e fins de vigilância
- Em janeiro de 2026, a Anthropic reafirmou seus princípios ao suspeitar que sua IA foi usada em um ataque à Venezuela no processo de colaboração com a Palantir
- A EFF enfatiza que, apesar da pressão do governo, empresas de tecnologia não devem se tornar ferramentas de vigilância
Pressão do Departamento de Defesa e posição da Anthropic
- O secretário de Defesa dos EUA pressionou a Anthropic exigindo o fornecimento de tecnologia sem restrições militares
- Se a Anthropic recusar, poderá ser designada como ‘risco para a cadeia de suprimentos’, o que pode bloquear negócios com o Departamento de Defesa
- Essa designação é descrita como uma medida normalmente aplicada a empresas que negociam com países sob monitoramento de agências federais, como a China
- A Anthropic mantém a posição de não apoiar o uso em sistemas de armas autônomas nem para fins de vigilância
- Segundo o CEO Dario Amodei, essas são “duas linhas vermelhas que não devem ser cruzadas”, e ele afirmou que são necessárias revisões rigorosas e salvaguardas para evitar abusos
- Os princípios centrais de segurança em IA da Anthropic e a Constituição do Claude (Constitution) estão publicados em seu site
Contexto da controvérsia
- Em 2025, a Anthropic ficou conhecida como a primeira empresa de IA autorizada a lidar com informações sigilosas
- Em janeiro de 2026, a controvérsia começou quando a empresa identificou indícios de que sua IA foi usada em um ataque à Venezuela durante a colaboração com a Palantir
- Depois disso, Amodei publicou uma carta reafirmando a proibição de uso para vigilância e armas autônomas
- Atualmente, o governo dos EUA está exigindo mudanças nas políticas da Anthropic por meio da ameaça de encerramento de contratos
Argumento da EFF
- A EFF enfatiza que a pressão do governo não deve levar empresas a abandonar princípios de direitos humanos e liberdades civis
- Muitas empresas de tecnologia não conseguem manter seus princípios por diversos motivos, como o lucro, mas afirma que a coerção do governo não deve ser um deles
- Clientes corporativos, o público e engenheiros esperam que a Anthropic mantenha seus princípios
- A organização alerta que é importante que o setor de tecnologia como um todo não se degrade a uma ferramenta de sistemas de vigilância
Tópicos relacionados
- Classificado como tema relacionado a inteligência artificial (AI) e aprendizado de máquina (Machine Learning)
- A EFF apresenta este caso como uma questão de fronteira entre ética em IA e vigilância governamental
1 comentários
Comentários do Hacker News
No fim, acho difícil a situação melhorar a menos que as pessoas se levantem e forcem mudanças
Ainda assim, a Anthropic parece ser a única grande empresa que ao menos está tendo discussões sobre segurança, como dizer que não usará IA para vigilância nem para tecnologias letais de guerra
Mas, como o governo atual está empurrando as empresas numa direção antidemocrática, não tenho certeza se a Anthropic vai aguentar até o fim. Pretendo ver o que vai acontecer nesta sexta-feira
Este governo foi eleito com o apoio de bilionários da tecnologia, e acho que eles podem até ter criado essa situação de propósito para garantir acesso a dados e verbas públicas
O resultado foi justamente mais vigilância. Do ponto de vista das vítimas, falar em reduzir vigilância pode soar pouco realista
No fim das contas, elas são empresas de vigilância, e isso faz parte do problema
O governo deve trabalhar para o povo e, em vez de ampliar a vigilância, deveria limitá-la por lei. A Constituição é justamente esse guia
Mas agora, tirando a Anthropic, todas mudaram. Até a Apple já não me parece mais disposta a enfrentar exigências do governo
Usei Apple por 25 anos, mas agora minha confiança desmoronou completamente. Espero que pelo menos a Anthropic preserve seus princípios e coragem
Mas a Anthropic também está promovendo o projeto KOSA por meio de financiamento de PAC
Se esse projeto passar, a liberdade de expressão anônima desaparece, e todo conteúdo terá de passar por verificação facial e de identidade
Este texto mostra que ela empurra a centralização em nome de segurança e propriedade intelectual
Eu acho que o mundo deveria caminhar para qualquer pessoa poder rodar AGI open source no próprio PC
Ficar repetindo a expressão “diálogo construtivo” com o governo parece falta de transparência
Foi na época do caso San Bernardino
Elas lucram com coleta de telemetria e reúnem dados sob o pretexto de resolver problemas de ambientes multitenant
No fim, os usuários são atraídos por benefícios gratuitos e acabam como vítimas presas em vendor lock-in
Pelo que vi nos últimos 20 anos, na maior parte das vezes foi uma transação combinada, e no fim era só negócio
Dizer “se você não obedecer, ligue sua IA ao meu sistema” é como um assaltante de banco mandar o caixa entregar a arma para ele
Boa parte do valor delas já se baseia na capacidade de cooperar com vigilância governamental. Elas não são vítimas, são cúmplices
A velocidade de crescimento da inteligência da IA é rápida demais, e em algum momento os humanos vão perder o controle
As pesquisas atuais de segurança e as políticas de escalonamento responsável no fim só ganham tempo; não mudam a direção em si. Essa é a parte mais assustadora
Segundo uma palestra de Steve Blank, antes dos anos 80 a maioria das startups do Vale do Silício começou com dinheiro militar
Ainda hoje, tecnologias estratégicas como internet, busca e IA são alvo de controle. Nós damos nossos dados para Facebook ou Google, mas não para o governo. No fim, porém, é a mesma informação
Naquela época, a cultura dos desenvolvedores girava em torno do espírito hacker, da privacidade estilo cyberpunk e do movimento open source, e isso entrava em choque com a cultura militar