2 pontos por GN⁺ 2026-02-28 | 1 comentários | Compartilhar no WhatsApp
  • Declarou que o anúncio da designação de risco de cadeia de suprimentos por Pete Hegseth não tem base legal e que contestará isso nos tribunais
  • Afirma que, ao longo de meses de negociações, a Anthropic pediu apenas duas exceções: vigilância doméstica em massa e armas totalmente autônomas, e que essas exceções não afetaram até agora nenhuma missão do governo
  • Sustenta que os atuais modelos de IA de fronteira não são confiáveis o suficiente para uso em armas totalmente autônomas e que permitir isso colocaria em risco combatentes das Forças Armadas dos EUA e civis
  • A designação de risco de cadeia de suprimentos historicamente tem sido aplicada apenas a países hostis aos EUA, e não há precedente de aplicação pública a uma empresa americana
  • Informou aos clientes que não há impacto no acesso ao Claude por clientes em geral e contratadas comerciais, e que a medida se limita ao trabalho sob contratos do Departamento de Defesa

Contexto e andamento das negociações

  • O secretário Hegseth anunciou no X que instruiria a designação da Anthropic como risco de cadeia de suprimentos
  • A medida veio depois que as negociações, que duraram meses, chegaram a um impasse em torno de duas exceções solicitadas pela Anthropic sobre o uso militar do Claude
    • Exceção 1: vigilância doméstica em massa de cidadãos americanos
    • Exceção 2: armas totalmente autônomas
  • Até o momento da divulgação da declaração, a Anthropic não havia recebido comunicação oficial direta do Departamento de Defesa nem da Casa Branca sobre o status das negociações

Posição da Anthropic

  • Deixou claro ao Departamento de Defesa que apoia todo uso legal de IA para segurança nacional, exceto pelas duas exceções acima
  • Afirma que essas exceções não afetaram até agora nenhuma missão do governo
  • Dois motivos para manter essas exceções:
    • Os atuais modelos de IA de fronteira não são confiáveis o suficiente para uso em armas totalmente autônomas, e permiti-lo criaria riscos para combatentes das Forças Armadas dos EUA e civis
    • Vigilância doméstica em massa viola direitos fundamentais

Resposta jurídica e preocupação com precedentes

  • A designação de risco de cadeia de suprimentos historicamente tem sido uma medida aplicada apenas a países hostis aos EUA, sem precedente de aplicação pública a uma empresa americana
  • A Anthropic alerta que essa designação é juridicamente insustentável (legally unsound) e criaria um precedente perigoso para qualquer empresa americana que negocie com o governo
  • Afirma que não mudará sua posição sobre vigilância doméstica em massa e armas totalmente autônomas diante de quaisquer ameaças ou punições do Departamento de Defesa
  • Declara que contestará a designação nos tribunais

Impacto para os clientes

  • Embora o secretário Hegseth tenha sugerido que os negócios com a Anthropic seriam restringidos para todas as empresas que fazem negócios com as Forças Armadas, a empresa rebate dizendo que o secretário não tem autoridade legal para sustentar isso
  • Segundo a designação de risco de cadeia de suprimentos com base em 10 USC 3252, isso só pode se aplicar quando o Claude for usado como parte de trabalho contratual do Departamento de Defesa, sem afetar o trabalho dessas contratadas para outros clientes
  • Escopo específico do impacto:
    • Se você é um cliente individual ou possui um contrato comercial com a Anthropic: não há nenhum impacto no acesso ao Claude via API, claude.ai etc.
    • Se você é uma contratada do Departamento de Defesa: mesmo com adoção formal, haverá impacto apenas no uso do Claude em trabalho sob contrato do Departamento de Defesa, sem efeito sobre usos para outras finalidades

Próximos passos da Anthropic

  • Desde junho de 2024, como a primeira empresa de IA de fronteira a implantar modelos em redes classificadas do governo dos EUA, tem apoiado combatentes das Forças Armadas dos EUA e pretende continuar fazendo isso
  • Sua prioridade máxima é evitar interrupções no serviço aos clientes causadas por esse episódio e apoiar uma transição tranquila para as Forças Armadas e operações militares dos EUA
  • Expressa agradecimento a colegas do setor, formuladores de políticas, veteranos e ao público em geral que demonstraram apoio recentemente

1 comentários

 
GN⁺ 2026-02-28
Comentários do Hacker News
  • A posição da Anthropic desta vez é realmente admirável
    Admitir com honestidade que não dá para prever como uma tecnologia poderosa pode ser usada indevidamente é uma atitude inteligente e corajosa

  • É irônico que Anthropic ou OpenAI coletem dados dos usuários como se estivessem vigiando o mundo inteiro, mas reajam com tanta sensibilidade à possibilidade de a mesma coisa acontecer dentro do próprio país
    Especialmente vendo que até históricos de chat são analisados em relatórios relacionados à China, a privacidade praticamente não existe

  • Espero que a Anthropic permaneça firme mesmo nessa situação
    Essa postura me faz gostar ainda mais da empresa

  • Espero que não ajudem o “Big Brother” a enxergar ainda mais
    Se o resultado disso for o aumento da vigilância, então já passou da hora de pensar seriamente se esse trabalho deve continuar sendo feito
    Talvez já seja hora de pensar em maneiras de contaminar os datasets de treinamento deles

  • Fico me perguntando se a Anthropic é a primeira empresa a enfrentar diretamente o atual governo

    • Não. No ano passado, alguns escritórios de advocacia que foram alvo de ordens executivas (EOs) venceram na Justiça
    • Em outro caso, várias pequenas e médias empresas enfrentaram as tarifas impostas pelo governo sob a IEEPA e venceram na Suprema Corte
      É possível consultar o caso em Learning Resources, Inc. v. Trump
  • Isso sim é liderança de verdade
    É completamente diferente do silêncio e da conivência demonstrados pelas grandes empresas de tecnologia

  • Esta declaração soa como uma forma muito educada de dizer “vai lá e tenta
    A Anthropic está mostrando uma postura de princípios e, se resistir até o fim, acho que tem grande chance de vencer

  • Resumo do conteúdo da declaração
    O secretário Hegseth disse que “empresas que fazem negócios com os militares não poderão fazer negócios com a Anthropic”, mas não há base legal para isso
    Segundo 10 USC 3252, a ‘designação de risco da cadeia de suprimentos’ se aplica apenas ao uso do Claude em contratos do Departamento de Guerra
    Ou seja, usuários comuns ou contratantes comerciais não sofrem nenhum impacto no uso da API do Claude ou do claude.ai

    • Na prática, a questão é se o governo vai pressionar os contratados
      Até empresas como o Google, que fornecem recursos computacionais para a Anthropic, podem ser afetadas
      Se a lei funcionar como deveria, os danos devem ser limitados, mas isso provavelmente vai depender de quão agressivamente o governo vai forçar a situação
      Pessoalmente, tenho quase nenhuma confiança no sistema jurídico; no fim, isso parece ser uma questão de vontade política
    • Outra possibilidade é classificar essa tecnologia como ‘dados restritos’, como no caso de tecnologia nuclear
      Nesse caso haveria uma batalha judicial, mas a maioria das empresas provavelmente não assumiria esse risco e acabaria cedendo
  • Acho que o título está errado
    Na verdade, seria algo como “declaração aos clientes sobre os comentários do secretário do Departamento de Guerra, Pete Hegseth”
    Esse tipo de resposta pode, na verdade, tocar em uma fraqueza do outro lado e provocar mais conflito

    • Corrigido, obrigado