4 pontos por GN⁺ 2026-02-27 | 1 comentários | Compartilhar no WhatsApp
  • Exclui do contrato duas áreas: vigilância doméstica em massa e armas totalmente autônomas
  • A Anthropic tem como missão central o uso de IA para a defesa dos EUA e de países democráticos e, para isso, está colaborando com o Departamento de Defesa e agências de inteligência
  • Os modelos Claude estão sendo usados em redes classificadas, laboratórios nacionais e órgãos de segurança nacional para missões como análise de inteligência, planejamento operacional e operações cibernéticas
  • A empresa protege a liderança dos EUA em IA ao interromper negócios com empresas ligadas ao Partido Comunista Chinês, bloquear ciberataques que abusam de IA e apoiar controles de exportação mais rígidos para semicondutores
  • No entanto, declara explicitamente que não pode ser usada em duas áreas — vigilância doméstica em massa e armas totalmente autônomas — por questões de valores democráticos e de confiabilidade tecnológica
  • A Anthropic afirma que manterá essas duas salvaguardas apesar da pressão do Departamento de Defesa e espera continuar cooperando

Cooperação de defesa e implantação de IA da Anthropic

  • A Anthropic é uma empresa pioneira que implantou modelos de IA pela primeira vez nas redes classificadas do governo dos EUA
    • Também foi a primeira a fornecer modelos personalizados para laboratórios nacionais e clientes de segurança nacional
    • Os modelos Claude são usados pelo Departamento de Defesa e por várias agências de segurança em análise de inteligência, modelagem e simulação, planejamento operacional e operações cibernéticas
  • A empresa apresenta casos em que abriu mão de ganhos de curto prazo para manter a vantagem tecnológica dos EUA em IA
    • Interrompeu negócios com empresas ligadas ao Partido Comunista Chinês, renunciando a centenas de milhões de dólares em receita
    • Bloqueou ciberataques originados da China que abusavam do Claude
    • Apoiou controles de exportação mais rígidos para semicondutores para garantir a superioridade tecnológica do bloco democrático

Duas exceções com base em valores democráticos e confiabilidade tecnológica

  • A Anthropic exclui explicitamente dois casos de uso nos quais a IA pode prejudicar valores democráticos
    • Vigilância doméstica em massa: apoia atividades legais de inteligência no exterior, mas a vigilância em massa da população dentro do país contraria princípios democráticos
      • A vigilância baseada em IA permite perfilamento pessoal em larga escala ao combinar automaticamente dados de deslocamento individual, uso da web e relações sociais
      • Como a legislação atual não acompanha a velocidade do avanço tecnológico, alguns atos de vigilância permanecem legais
    • Armas totalmente autônomas: armas que identificam e atacam alvos sem intervenção humana têm confiabilidade insuficiente com a tecnologia atual
      • A Anthropic não fornece produtos para esse tipo de arma
      • A empresa propôs ao Departamento de Defesa uma cooperação em pesquisa para melhorar a confiabilidade, mas a proposta não foi aceita
      • Declara que, no momento, a implantação é inviável devido à ausência de supervisão e salvaguardas adequadas

Exigências do Departamento de Defesa e resposta da Anthropic

  • O Departamento de Defesa exigiu que as empresas de IA concordem com todos os usos legais e removam essas duas salvaguardas
    • Advertiu que, em caso de recusa, poderia designar a Anthropic como risco da cadeia de suprimentos (supply chain risk) ou acionar a Lei de Produção para Defesa (Defense Production Act) para forçar a medida
    • As duas medidas têm naturezas conflitantes: uma a trata como ameaça à segurança, enquanto a outra a considera tecnologia essencial para a segurança nacional
  • Apesar dessa pressão, a Anthropic declara claramente que, por uma questão de consciência, não pode aceitar essa exigência
    • Reconhece o direito do Departamento de Defesa de escolher outros contratados, mas espera continuar cooperando mantendo as duas salvaguardas
    • Mesmo que o contrato seja encerrado, promete apoiar uma transição tranquila para evitar impactos em operações ou planejamentos militares

Posição daqui para frente

  • A Anthropic reafirma sua disposição de apoiar a segurança nacional dos EUA
  • A empresa quer continuar cooperando com o Departamento de Defesa, mas mantém a posição de não ceder em seus princípios de valores democráticos e segurança tecnológica

1 comentários

 
GN⁺ 2026-02-27
Comentários do Hacker News
  • A parte mais forte do texto é quando o governo exige que a Anthropic remova suas medidas de segurança e, ao mesmo tempo, ameaça classificá-la como “risco para a cadeia de suprimentos”
    Por um lado, diz que ela é essencial para a segurança nacional; por outro, a chama de fator de risco — uma postura contraditória
    Impressiona a resposta da Anthropic: “então o governo não precisa usar nossos serviços”. Isso é estratégia de mensagem, mas também devolve a responsabilidade ao governo

  • Trabalhei na Anthropic no passado e há um comentário meu sobre esta atualização do RSP
    É tocante ver líderes da Anthropic dispostos a perder cargos ou oportunidades para manter seus valores
    Pessoas como Dario, Jared e Sam levam suas convicções tão a sério que aceitariam prejuízos se algo contrariasse seus princípios
    Claro que não é uma empresa perfeita, mas, em geral, quem toma as decisões importantes age movido por boa-fé e por valores

  • Ao ler o texto, travei na frase “a IA atual não é confiável o bastante para operar armas totalmente autônomas”
    Ou seja, isso soa como se deixasse aberta a possibilidade de armas autônomas quando ela se tornar confiável o suficiente
    Também incomoda o fato de criticar apenas a “vigilância doméstica em grande escala”, sem rejeitar explicitamente a “vigilância parcialmente autônoma” ou a “vigilância no exterior”
    Eu achava que o nome “Anthropic” significava algo em favor da humanidade como um todo, mas no fim parece mais uma lógica de “nossa gente vs. a de vocês”

    • Isso faz pensar se a frase “a Anthropic é a favor dos humanos” é mesmo sincera
      É como OpenAI ser “aberta” ou a Coreia do Norte se chamar “república popular”: o nome pode não corresponder à realidade
      Isso me lembrou a página satírica People’s Republic of Tyranny
    • Achei a formulação apropriada. Dario não está em posição de fazer afirmações categóricas sobre o futuro
    • Acho que, quando os sistemas se tornarem confiáveis o suficiente, armas totalmente autônomas aparecerão no campo de batalha
      O que a Anthropic está dizendo é apenas “agora isso ainda não é possível”. Depois, é bem provável que as restrições sejam afrouxadas
    • Eu não li isso como “quando houver dados de treinamento suficientes”, mas sim como quando o padrão de confiabilidade for atingido
      Hardware e software em geral também têm limites de confiabilidade, então isso, por si só, não é irracional
    • O curioso é que, ao mesmo tempo em que dizem que armas autônomas ainda não são confiáveis, também afirmam que a IA já é confiável o suficiente para substituir empregos de colarinho branco, o que soa contraditório
  • A verdadeira natureza de uma organização aparece quando valores e lucro entram em conflito
    É admirável ver a Anthropic tentando manter seus princípios. A maioria das empresas não teria feito essa escolha

    • Mas esse tipo de decisão, no fim das contas, custa dinheiro
      Depender de sistemas ruins por razões morais inevitavelmente fracassa no longo prazo
      É preciso haver mecanismos fortes de dissuasão contra mau comportamento, mas parece que já estamos atrasados
  • Ler isso me deixou realmente deprimido. Não sei para onde os EUA estão indo
    Espero que na próxima eleição apareça uma liderança racional

    • Mas isso não é algo que se resolva em uma única eleição. Vai exigir um esforço de gerações
    • Esperança sozinha não basta. Sem um plano concreto, não há futuro
    • Essa tendência não é novidade. Desde o 11 de Setembro, vêm se acumulando a militarização da polícia, ataques à democracia e políticas externas unilaterais
    • Preocupa que a disseminação desenfreada da IA piore ainda mais a estrutura social. Pode vir um período ainda mais caótico do que a era das redes sociais
    • Enquanto os democratas continuarem focados em pautas periféricas em vez dos temas centrais, será difícil vencer a próxima eleição
      Moro em São Francisco: professores precisam recorrer ao GoFundMe para comprar material escolar, enquanto a cidade gasta US$ 36 milhões para remover RVs
      Esta matéria mostra o quanto a realidade está distorcida
  • A raiz de todos os problemas é que o Congresso transferiu poder ao Executivo
    Os militares devem ser controlados pela lei, e só a ação cívica pode mudar isso
    É absurdo que empresas ditem o comportamento dos militares. A tecnologia pode ser requisitada a qualquer momento, e as empresas não têm como impedir isso
    O fato de CEOs serem tratados como heróis por causa disso mostra o quanto a percepção da realidade está distorcida

    • Em uma economia de mobilização de guerra até faria sentido, mas em uma democracia em tempo de paz esse tipo de medida coercitiva não pode ser tolerado
  • No começo fiquei decepcionado ao saber que a Anthropic, enquanto defende “IA para a humanidade”, também vendeu acesso prioritário ao Pentágono
    Ainda assim, dá para entender a lógica de que, se alguém inevitavelmente vai cooperar com o complexo militar-industrial, então é melhor que isso fique nas mãos de quem tem os padrões morais mais altos

    • A IA é, por natureza, uma tecnologia ideal para fins militares e de vigilância. Ela analisa grandes volumes de dados e extrai informações úteis
      No fim, empresas existem para gerar lucro
    • Empresas precisam de receita para sobreviver. Se os usuários não pagarem o bastante, elas vão buscar outra fonte de renda
      Enquanto houver investidores e acionistas, a sobrevivência tenderá a vir antes da moral
      A independência real só é possível em uma estrutura que não dependa de lucro
  • Sou assinante do Claude Max e, por causa disso, tenho orgulho de ver a Anthropic não se curvando ao poder
    Espero que outras empresas também ganhem coragem

    • Mas, até certo ponto, ela já se curvou ao poder. Só que ainda preserva um mínimo de amor-próprio
  • O uso da expressão “Department of War” ocorreu apenas porque o Congresso não mudou o nome. Fora isso, achei a escolha boa

    • Não vale a pena discutir a questão do nome. Na prática, as próprias pessoas no poder estão chamando assim
    • Na verdade, acho melhor o nome original, “Department of War”, porque ele deixa a função mais clara
      A gente suaviza tudo com eufemismos e acaba deixando de enxergar a realidade como ela é
    • Também acho esse nome mais honesto. Ele mostra melhor o que a instituição realmente faz e força as pessoas a refletirem sobre isso
    • Parece que a expressão foi mantida porque é o termo em que Hegseth insiste. Se tivessem escrito “DoD”, isso teria sido até mais provocativo
    • Ainda assim, esse tipo de escolha de nomenclatura ajuda a definir o tom do texto
  • Valorizo que Dario e a Anthropic tenham assumido uma posição moral. Isso é raro hoje no setor de tecnologia

    • Mesmo para quem não é otimista nem pessimista em relação a LLMs, os riscos da vigilância e das armas autônomas são evidentes
      É notável que Dario não tenha agido como Sam Altman ou Sundar Pichai
    • Mas há quem veja isso apenas como encenação. Seria só um gesto tardio dos criadores do monstro
    • Em outra visão, já a primeira frase da declaração — “defenderemos os EUA e a democracia com IA” — soou repugnante
      Na prática, a Anthropic já está implantando modelos para defesa e agências de inteligência
    • Houve quem criticasse dizendo: “então quer dizer que vigiar Canadá ou Alemanha é aceitável?”, apontando a fragilidade da base moral
    • Também há um olhar cínico de que “mesmo que hoje pareça moral, depois de um IPO a empresa acabará subordinada à lógica de lucro de Wall Street e dos fundos
      No fim, diante de contratos governamentais de bilhões de dólares, nenhuma empresa consegue permanecer pura, segundo esse argumento