- O Departamento de Defesa dos EUA (DoD) está ameaçando invocar a Defense Production Act contra a Anthropic, forçando a empresa a fornecer modelos para uso militar e a adaptá-los às exigências das Forças Armadas
- A Anthropic se recusa a permitir que seus modelos sejam usados para vigilância doméstica em larga escala ou letalidade autônoma sem controle humano, e, em retaliação, o Departamento de Defesa estaria tentando classificar a empresa como risco para a cadeia de suprimentos (supply chain risk)
- Para forçar a Anthropic a aceitar condições que recusou, o Departamento de Defesa também está negociando com Google e OpenAI, tentando colocar as empresas umas contra as outras
- Em resposta, 709 funcionários atuais do Google e da OpenAI (614 do Google, 95 da OpenAI) assinaram uma carta aberta conjunta pedindo que as duas empresas se unam para rejeitar as exigências do Departamento de Defesa
- A carta é um ato simbólico de resistência interna e solidariedade do setor contra o uso indevido militar da IA
Principais pontos da carta aberta
- O Departamento de Defesa está ameaçando a Anthropic com a invocação da Defense Production Act e a classificação como risco para a cadeia de suprimentos
- As exigências consistem em obrigar a Anthropic a fornecer seus modelos de IA aos militares e ajustá-los às necessidades das Forças Armadas
- A Anthropic mantém seu princípio interno de proibir uso em vigilância doméstica e armas autônomas letais
- Após a recusa da Anthropic, o Departamento de Defesa está em negociações com Google e OpenAI
- Isso é descrito como uma estratégia para instigar o medo de que outra empresa ceda primeiro
- A carta representa uma declaração conjunta de posição para impedir essa tentativa de divisão
- A frase “essa estratégia só funciona quando não conhecemos a posição uns dos outros” destaca a necessidade de solidariedade
Signatários e participação
- 614 funcionários do Google e 95 da OpenAI assinaram a carta
- Todos foram verificados como funcionários atuais
- Alguns participaram com nome real, enquanto muitos assinaram como anônimos (Anonymous)
- Era possível assinar de forma anônima ou identificada, e todas as assinaturas foram validadas por meio de um processo de comprovação de vínculo empregatício
- Métodos de verificação: autenticação por e-mail corporativo, login no Google Form ou envio de foto de documento de identidade
- Os dados pessoais dos signatários anônimos são apagados automaticamente em até 24 horas após a verificação
Significado da carta
- Um caso claro de definição de limites éticos para o uso militar dentro de empresas de IA
- Funcionários do Google e da OpenAI expressaram publicamente a posição de priorizar princípios comuns acima da competição entre empresas
- Tem grande importância como mecanismo interno de contenção contra o uso indevido de tecnologias de vigilância e letalidade autônoma em IA
3 comentários
Sendo uma agência de inteligência dos EUA, até daria para imaginar que desenvolveriam isso por conta própria.... Até porque eles provavelmente seriam melhores em coletar dados para treinamento
Uau
Comentários do Hacker News
Este assunto parece ter um impacto muito maior sobre a economia dos EUA e sobre o Estado de direito como um todo
Se o governo puder usar regras de compras criadas em nome da segurança nacional para punir a Anthropic por “falta de lealdade”, outras empresas como Apple ou Amazon também poderão correr o mesmo risco no futuro
Este é um momento de virada importante para os Estados Unidos
Achei sensato que a Anthropic tenha deixado claro que seus modelos não se alinham ao propósito de “matança automatizada em larga escala” do Departamento de Defesa dos EUA
Operar armas com LLMs seria um erro historicamente terrível
Se a Anthropic cair, isso será mais um prego no caixão da confiança nos Estados Unidos
Empresas assinantes perderão ferramentas importantes por causa de uma única fala do presidente e passarão a duvidar se é seguro depender de outras empresas americanas
Hoje em dia, algo que antes levaria anos pode acontecer em um dia por causa de um único post no Truth Social
No fim, alguém vai atender às exigências do Departamento de Defesa, e mesmo que a Anthropic resista, o resultado não vai mudar
Foi um erro o DoD tê-los classificado como “vulnerabilidade da cadeia de suprimentos”. Se simplesmente tivessem usado o DPA, teria saído muito mais barato e silencioso
Assim como cientistas fugiram da Alemanha nazista para os EUA no passado e participaram do Projeto Manhattan, desta vez os talentos de IA é que deixarão os Estados Unidos
Vigilância em massa dentro do próprio país pode até parecer tolerável para os cidadãos locais, mas como os americanos se sentiriam se outro país fizesse o mesmo?
Esse tipo de política acaba permitindo que o mundo inteiro vigie uns aos outros
Havia uma nuance de que vigilância estrangeira ou armas autônomas seriam aceitáveis, desde que não ameaçassem a vida de cidadãos americanos
Fico me perguntando se isso reflete a visão de parte dos americanos ou se foi uma formulação pensada para agradar patriotas radicais
Vendo como o governo tem agido ultimamente, isso me preocupa bastante
Os EUA passaram tempo demais como superpotência e parecem ter desenvolvido um vício em poder, do tipo “nós estamos sempre certos”
Empresas são feitas de pessoas, então quando o governo impõe políticas, a inovação morre
Forçar grandes cientistas e engenheiros à submissão é desperdício
Mas interromper todos os negócios com a empresa pode ser excessivo
Por exemplo, se uma empresa de tomate enlatado disser “não usem isso na guerra ao terror”, pode ser razoável o governo evitar essa empresa
Mesmo quando perde poder, esse monopólio não desaparece. Ainda mais se o líder estiver controlando figuras influentes da sociedade por meio de pontos fracos
A recusa da Anthropic a “vigilância doméstica em massa e letalidade autônoma” citada em seu comunicado é uma armadilha
A palavra “doméstica” não significa nada.
Segundo o acordo Eyes, os países contornam a proibição de vigiar seus próprios cidadãos compartilhando dados entre si
No fim, todos os países vigiam uns aos outros, e a lei é só um enfeite para tranquilizar o público
Bots espiões não têm noção de cidadania, e toda atividade digital é alvo de vigilância
Se Google ou TikTok conseguem fazer isso, então governos ou uma IA agêntica como o ChatGPT também conseguem
O que está acontecendo agora não é uma questão de IA, e sim um teste de lealdade
É a troca entre financiamento estatal e lealdade, e um momento de escolha que chegará para todos
No fim, tornar-se cúmplice vira prova de lealdade
Então não espere; exija e resista
Modelos como EmbeddingGemma ou Qwen3 já bastam para fazer clusterização de dados
Os EUA já estão funcionando como uma economia de comando
Na pandemia, também cresceram apenas com gasto público sob a aparência de “empresa privada”
Se o Departamento de Defesa não tem uma IA melhor que a do setor privado, isso é uma confissão de incompetência
Agora seria preciso reformar a estrutura militar e substituir a liderança incompetente
E me parece óbvio que o governo não teria uma IA generativa melhor do que a Anthropic
Mesmo com mudança de governo, os gastos militares continuarão subindo, e esse dinheiro irá para empresas que não ligam para matar pessoas
O alerta de Eisenhower acabou se tornando realidade
A diferença era que o capitalismo ao menos selecionava elites por desempenho, mas até isso ficou turvo desde 2011
Organização dos acontecimentos em uma linha do tempo
Junto com as discussões para classificar a Anthropic como risco de segurança da cadeia de suprimentos, houve também a ameaça de tomar a empresa em nome da segurança nacional
A previsão é que a OpenAI acabe seguindo caminho semelhante: privatização dos lucros, socialização das perdas
Um site estaria coletando dados de identificação de ex-funcionários e funcionários atuais da OpenAI e do Google com determinada orientação política
Dizem que ele exige verificação com e-mail corporativo, foto do crachá etc., e que armazena tudo em uma nuvem sediada nos EUA
O operador é anônimo, e parece fácil imaginar várias forças usando esses dados para diferentes objetivos
A frase “esperamos que líderes deixem de lado suas diferenças e rejeitem isso juntos” soa bem, mas é preciso pensar no que acontece se essa esperança fracassar
Na prática isso é difícil, mas se houvesse uma decisão dessas, eu respeitaria