- O Departamento de Guerra dos EUA designou a Anthropic como um fator de risco na cadeia de suprimentos para a segurança nacional, e a empresa considera que a medida não é juridicamente justificável, preparando uma resposta legal
- A carta do Departamento de Guerra afirma que o escopo da restrição de uso dos modelos Claude é muito limitado, aplicando-se apenas ao uso por clientes diretamente relacionado a contratos com o Departamento de Guerra
- A lei relevante (10 USC 3252) existe com o objetivo de proteger o governo, e o secretário do Departamento de Guerra deve usar apenas os meios mais restritivos em grau mínimo
- A Anthropic está discutindo com o Departamento de Guerra a continuidade da cooperação e formas de uma transição sem atritos, mantendo os princípios de exceção sobre armas autônomas e vigilância doméstica em larga escala
- A empresa enfatiza o objetivo comum de apoiar para que militares dos EUA em guerra e especialistas em segurança não percam o acesso às ferramentas de que precisam, e de ampliar o uso de IA na segurança nacional
Designação de risco na cadeia de suprimentos pelo Departamento de Guerra
- O Departamento de Guerra informou que classificou a Anthropic como um risco na cadeia de suprimentos para a segurança nacional dos EUA
- A Anthropic entende que essa medida não é legalmente válida e pretende contestá-la judicialmente
- Segundo a redação da carta do Departamento de Guerra, essa designação se aplica apenas a clientes que usam os modelos Claude como parte direta de contratos com o Departamento de Guerra
- Mesmo que tenham contrato com o Departamento de Guerra, não há restrições ao uso do Claude sem relação com esse contrato nem a transações com a Anthropic
Base legal e escopo de aplicação
- A medida do Departamento de Guerra se baseia na seção 10 USC 3252, e essa lei exige o uso de medidas mínimas e restrições limitadas para proteger a cadeia de suprimentos
- O objetivo da lei é proteger o governo, não punir fornecedores
- Portanto, o alcance da designação é muito limitado e não afeta clientes fora do grupo de contratantes do Departamento de Guerra
Cooperação com o Departamento de Guerra e princípios de exceção
- Nos últimos dias, a Anthropic discutiu com o Departamento de Guerra formas de manter a cooperação e os procedimentos de transição
- A empresa vem apoiando o Departamento de Guerra em várias áreas, como análise de inteligência, modelagem e simulação, planejamento operacional e operações cibernéticas
- A Anthropic mantém dois princípios de exceção para armas autônomas e vigilância doméstica em larga escala
- A empresa deixou claro seu entendimento de que empresas privadas não devem se envolver em decisões sobre operações militares
Vazamento de postagem interna
- A empresa pediu desculpas por uma postagem interna da companhia que vazou para a imprensa no dia anterior
- A postagem foi escrita logo após a publicação do presidente na Truth Social, a postagem do secretário do Departamento de Guerra no X e o anúncio do contrato entre OpenAI e o Departamento de Defesa
- A Anthropic afirmou que não vazou essa postagem e que não tinha intenção de agravar a situação
- A postagem foi escrita há seis dias e é uma avaliação desatualizada que não reflete a situação atual
Suporte futuro e objetivo comum
- A Anthropic planeja continuar apoiando para que militares dos EUA em guerra e especialistas em segurança nacional possam seguir usando as ferramentas de que precisam
- A empresa pretende continuar fornecendo modelos e suporte técnico a custo nominal ao Departamento de Guerra e a órgãos de segurança
- A empresa compartilha com o Departamento de Guerra o objetivo comum de fortalecer a segurança dos EUA e ampliar o uso governamental de IA
- Todas as decisões futuras serão tomadas com base nessa premissa compartilhada
1 comentários
Opiniões do Hacker News
Impressiona o quanto a janela de Overton se deslocou nesse assunto
Quando me formei em 2007, era comum empresas de tecnologia recusarem que seus sistemas fossem usados em guerras, e muitos conhecidos também evitavam trabalhar nessas empresas por motivos morais
Mas agora a Anthropic quer estabelecer apenas duas exceções por razões práticas, não morais. E até isso é embalado com uma linguagem que soa como se quisessem apoiar a guerra, mas estivessem sendo forçados. O mundo realmente mudou muito
Um filme anti-napalm que satiriza a situação em que trabalhadores não sabem que o produto que fabricam é, na verdade, uma arma
A fala final, “aquilo que produzimos depende dos trabalhadores, estudantes e engenheiros”, continua válida até hoje
Antigamente esse tipo de história fazia parte da educação ética, mas hoje parece que até essas aulas desapareceram
Eles rejeitam a tecnologia de armas letais autônomas apenas porque ela ainda não evoluiu o bastante, com um claro “ainda não” implícito
É melhor que a OpenAI, mas no fim continua sendo apenas a opção menos ruim
Existe a realidade de que pesquisa em defesa pode ser necessária, mas sistemas automatizados de tomada de decisão se tornam perigosos quando escapam ao controle humano
Acho que deveria haver obrigação legal de manter um ‘human-in-the-loop’
A “guerra” de 2007 era o Iraque; a “guerra” de hoje inclui Gaza, Irã, Venezuela e até a possibilidade de invasões da Ucrânia ou de Taiwan
Imagino que a Anthropic também esteja considerando esse contexto internamente
Na época da universidade, eu tinha um amigo que queria trabalhar na DARPA; quando perguntei sua visão ética, ele respondeu: “isso não é problema meu”
Estudando nos EUA, senti que tanto a liderança da indústria quanto as universidades não têm interesse em pensamento crítico e educação ética, focando apenas em transformar pessoas em ferramentas técnicas
Mesmo na semana de inovação em VR de Harvard, quase não havia fundadores nem desenvolvedores na sessão sobre “ética e direito”. A discussão sobre impacto social estava completamente excluída
No fim, tive a sensação de que a loucura pelo dinheiro destruiu a capacidade de pensar da sociedade
Se alguém morrer como resultado disso, acho que eu também carrego parte da responsabilidade
Mas o problema é que, na prática, é difícil manter uma linha moral quando se precisa sobreviver. No fim, estamos todos no mesmo barco
Até num texto de George Orwell (link), ele dizia que educação científica sozinha não garante uma visão humana
Fiquei surpreso ao ver a frase “a Anthropic tem mais em comum com o Departamento de Defesa do que diferenças”
Mas agora discutir alinhamento de IA (alignment) no mesmo contexto de “alinhamento com o departamento de guerra” é intelectualmente inadequado
Entre os países atacados neste ano, nenhum representa uma ameaça existencial à humanidade. Pelo contrário, essas guerras aumentam riscos centrais
Fico me perguntando por que não há mais vozes contrárias entre os pesquisadores
A probabilidade de a IA ser nacionalizada para fins militares parece alta, e é contraditório a Anthropic dizer que sua tecnologia é mais perigosa que a bomba atômica enquanto firma parceria militar com a Palantir
A fala da Anthropic sobre “combatente (warfighter)” me deixou em dúvida
Será que só essas duas exceções bastam para preservar um limite ético?
A Anthropic, nessa situação, parece estar do lado “melhor”, mas ainda assim está lucrando com a indústria da guerra
Nada representa melhor a realidade orwelliana dos EUA em 2026 do que a palavra “warfighter”
Cita o texto de Mike Masnick na Techdirt
Em governos anteriores, a posição “queremos garantir que a IA não tome decisões de matar sem intervenção humana” seria uma condição de negociação normal
Mas agora a situação virou uma em que o secretário de Defesa chama publicamente a empresa de “traidora”, o presidente ordena que todos os órgãos do governo suspendam seu uso, e o CEO precisa escrever uma carta de desculpas que parece bilhete de refém
Se poder e corrupção do governo não forem contidos, as empresas acabam inevitavelmente entrando nesses acordos
No começo é por dinheiro e patriotismo, mas aos poucos elas se envolvem em coisas sem volta, e sair disso também se torna difícil
Aí chega um novo CEO dizendo “o anterior era fraco, eu serei diferente”, repetindo o mesmo ciclo vicioso
Gostaria de dizer o seguinte às pessoas que querem fornecer tecnologia para a indústria da guerra
“Tudo pode ser tirado de você, mas a consciência só se perde se você mesmo a abandonar”
Muitas vezes essas pessoas trabalham lá simplesmente por convicção de que estão ajudando o governo
Acho muito interessante como esse caso vai terminar tanto nos tribunais quanto no tribunal da opinião pública
Considero um caso importante e espero que chegue ao resultado correto
O subsecretário do Departamento de Guerra Emil Michael declarou oficialmente que “não haverá negociação com a Anthropic” em comunicado oficial
O tema é tratado em detalhe na entrevista à a16z news