- Exclui do contrato duas áreas: vigilância doméstica em massa e armas totalmente autônomas
- A Anthropic tem como missão central o uso de IA para a defesa dos EUA e de países democráticos e, para isso, está colaborando com o Departamento de Defesa e agências de inteligência
- Os modelos Claude estão sendo usados em redes classificadas, laboratórios nacionais e órgãos de segurança nacional para missões como análise de inteligência, planejamento operacional e operações cibernéticas
- A empresa protege a liderança dos EUA em IA ao interromper negócios com empresas ligadas ao Partido Comunista Chinês, bloquear ciberataques que abusam de IA e apoiar controles de exportação mais rígidos para semicondutores
- No entanto, declara explicitamente que não pode ser usada em duas áreas — vigilância doméstica em massa e armas totalmente autônomas — por questões de valores democráticos e de confiabilidade tecnológica
- A Anthropic afirma que manterá essas duas salvaguardas apesar da pressão do Departamento de Defesa e espera continuar cooperando
Cooperação de defesa e implantação de IA da Anthropic
- A Anthropic é uma empresa pioneira que implantou modelos de IA pela primeira vez nas redes classificadas do governo dos EUA
- Também foi a primeira a fornecer modelos personalizados para laboratórios nacionais e clientes de segurança nacional
- Os modelos Claude são usados pelo Departamento de Defesa e por várias agências de segurança em análise de inteligência, modelagem e simulação, planejamento operacional e operações cibernéticas
- A empresa apresenta casos em que abriu mão de ganhos de curto prazo para manter a vantagem tecnológica dos EUA em IA
- Interrompeu negócios com empresas ligadas ao Partido Comunista Chinês, renunciando a centenas de milhões de dólares em receita
- Bloqueou ciberataques originados da China que abusavam do Claude
- Apoiou controles de exportação mais rígidos para semicondutores para garantir a superioridade tecnológica do bloco democrático
Duas exceções com base em valores democráticos e confiabilidade tecnológica
- A Anthropic exclui explicitamente dois casos de uso nos quais a IA pode prejudicar valores democráticos
- Vigilância doméstica em massa: apoia atividades legais de inteligência no exterior, mas a vigilância em massa da população dentro do país contraria princípios democráticos
- A vigilância baseada em IA permite perfilamento pessoal em larga escala ao combinar automaticamente dados de deslocamento individual, uso da web e relações sociais
- Como a legislação atual não acompanha a velocidade do avanço tecnológico, alguns atos de vigilância permanecem legais
- Armas totalmente autônomas: armas que identificam e atacam alvos sem intervenção humana têm confiabilidade insuficiente com a tecnologia atual
- A Anthropic não fornece produtos para esse tipo de arma
- A empresa propôs ao Departamento de Defesa uma cooperação em pesquisa para melhorar a confiabilidade, mas a proposta não foi aceita
- Declara que, no momento, a implantação é inviável devido à ausência de supervisão e salvaguardas adequadas
Exigências do Departamento de Defesa e resposta da Anthropic
- O Departamento de Defesa exigiu que as empresas de IA concordem com todos os usos legais e removam essas duas salvaguardas
- Advertiu que, em caso de recusa, poderia designar a Anthropic como risco da cadeia de suprimentos (supply chain risk) ou acionar a Lei de Produção para Defesa (Defense Production Act) para forçar a medida
- As duas medidas têm naturezas conflitantes: uma a trata como ameaça à segurança, enquanto a outra a considera tecnologia essencial para a segurança nacional
- Apesar dessa pressão, a Anthropic declara claramente que, por uma questão de consciência, não pode aceitar essa exigência
- Reconhece o direito do Departamento de Defesa de escolher outros contratados, mas espera continuar cooperando mantendo as duas salvaguardas
- Mesmo que o contrato seja encerrado, promete apoiar uma transição tranquila para evitar impactos em operações ou planejamentos militares
Posição daqui para frente
- A Anthropic reafirma sua disposição de apoiar a segurança nacional dos EUA
- A empresa quer continuar cooperando com o Departamento de Defesa, mas mantém a posição de não ceder em seus princípios de valores democráticos e segurança tecnológica
1 comentários
Comentários do Hacker News
A parte mais forte do texto é quando o governo exige que a Anthropic remova suas medidas de segurança e, ao mesmo tempo, ameaça classificá-la como “risco para a cadeia de suprimentos”
Por um lado, diz que ela é essencial para a segurança nacional; por outro, a chama de fator de risco — uma postura contraditória
Impressiona a resposta da Anthropic: “então o governo não precisa usar nossos serviços”. Isso é estratégia de mensagem, mas também devolve a responsabilidade ao governo
Trabalhei na Anthropic no passado e há um comentário meu sobre esta atualização do RSP
É tocante ver líderes da Anthropic dispostos a perder cargos ou oportunidades para manter seus valores
Pessoas como Dario, Jared e Sam levam suas convicções tão a sério que aceitariam prejuízos se algo contrariasse seus princípios
Claro que não é uma empresa perfeita, mas, em geral, quem toma as decisões importantes age movido por boa-fé e por valores
Ao ler o texto, travei na frase “a IA atual não é confiável o bastante para operar armas totalmente autônomas”
Ou seja, isso soa como se deixasse aberta a possibilidade de armas autônomas quando ela se tornar confiável o suficiente
Também incomoda o fato de criticar apenas a “vigilância doméstica em grande escala”, sem rejeitar explicitamente a “vigilância parcialmente autônoma” ou a “vigilância no exterior”
Eu achava que o nome “Anthropic” significava algo em favor da humanidade como um todo, mas no fim parece mais uma lógica de “nossa gente vs. a de vocês”
É como OpenAI ser “aberta” ou a Coreia do Norte se chamar “república popular”: o nome pode não corresponder à realidade
Isso me lembrou a página satírica People’s Republic of Tyranny
O que a Anthropic está dizendo é apenas “agora isso ainda não é possível”. Depois, é bem provável que as restrições sejam afrouxadas
Hardware e software em geral também têm limites de confiabilidade, então isso, por si só, não é irracional
A verdadeira natureza de uma organização aparece quando valores e lucro entram em conflito
É admirável ver a Anthropic tentando manter seus princípios. A maioria das empresas não teria feito essa escolha
Depender de sistemas ruins por razões morais inevitavelmente fracassa no longo prazo
É preciso haver mecanismos fortes de dissuasão contra mau comportamento, mas parece que já estamos atrasados
Ler isso me deixou realmente deprimido. Não sei para onde os EUA estão indo
Espero que na próxima eleição apareça uma liderança racional
Moro em São Francisco: professores precisam recorrer ao GoFundMe para comprar material escolar, enquanto a cidade gasta US$ 36 milhões para remover RVs
Esta matéria mostra o quanto a realidade está distorcida
A raiz de todos os problemas é que o Congresso transferiu poder ao Executivo
Os militares devem ser controlados pela lei, e só a ação cívica pode mudar isso
É absurdo que empresas ditem o comportamento dos militares. A tecnologia pode ser requisitada a qualquer momento, e as empresas não têm como impedir isso
O fato de CEOs serem tratados como heróis por causa disso mostra o quanto a percepção da realidade está distorcida
No começo fiquei decepcionado ao saber que a Anthropic, enquanto defende “IA para a humanidade”, também vendeu acesso prioritário ao Pentágono
Ainda assim, dá para entender a lógica de que, se alguém inevitavelmente vai cooperar com o complexo militar-industrial, então é melhor que isso fique nas mãos de quem tem os padrões morais mais altos
No fim, empresas existem para gerar lucro
Enquanto houver investidores e acionistas, a sobrevivência tenderá a vir antes da moral
A independência real só é possível em uma estrutura que não dependa de lucro
Sou assinante do Claude Max e, por causa disso, tenho orgulho de ver a Anthropic não se curvando ao poder
Espero que outras empresas também ganhem coragem
O uso da expressão “Department of War” ocorreu apenas porque o Congresso não mudou o nome. Fora isso, achei a escolha boa
A gente suaviza tudo com eufemismos e acaba deixando de enxergar a realidade como ela é
Valorizo que Dario e a Anthropic tenham assumido uma posição moral. Isso é raro hoje no setor de tecnologia
É notável que Dario não tenha agido como Sam Altman ou Sundar Pichai
Na prática, a Anthropic já está implantando modelos para defesa e agências de inteligência
No fim, diante de contratos governamentais de bilhões de dólares, nenhuma empresa consegue permanecer pura, segundo esse argumento