2 pontos por GN⁺ 2026-03-01 | 3 comentários | Compartilhar no WhatsApp
  • O Departamento de Defesa dos EUA (DoD) está ameaçando invocar a Defense Production Act contra a Anthropic, forçando a empresa a fornecer modelos para uso militar e a adaptá-los às exigências das Forças Armadas
  • A Anthropic se recusa a permitir que seus modelos sejam usados para vigilância doméstica em larga escala ou letalidade autônoma sem controle humano, e, em retaliação, o Departamento de Defesa estaria tentando classificar a empresa como risco para a cadeia de suprimentos (supply chain risk)
  • Para forçar a Anthropic a aceitar condições que recusou, o Departamento de Defesa também está negociando com Google e OpenAI, tentando colocar as empresas umas contra as outras
  • Em resposta, 709 funcionários atuais do Google e da OpenAI (614 do Google, 95 da OpenAI) assinaram uma carta aberta conjunta pedindo que as duas empresas se unam para rejeitar as exigências do Departamento de Defesa
  • A carta é um ato simbólico de resistência interna e solidariedade do setor contra o uso indevido militar da IA

Principais pontos da carta aberta

  • O Departamento de Defesa está ameaçando a Anthropic com a invocação da Defense Production Act e a classificação como risco para a cadeia de suprimentos
    • As exigências consistem em obrigar a Anthropic a fornecer seus modelos de IA aos militares e ajustá-los às necessidades das Forças Armadas
    • A Anthropic mantém seu princípio interno de proibir uso em vigilância doméstica e armas autônomas letais
  • Após a recusa da Anthropic, o Departamento de Defesa está em negociações com Google e OpenAI
    • Isso é descrito como uma estratégia para instigar o medo de que outra empresa ceda primeiro
  • A carta representa uma declaração conjunta de posição para impedir essa tentativa de divisão
    • A frase “essa estratégia só funciona quando não conhecemos a posição uns dos outros” destaca a necessidade de solidariedade

Signatários e participação

  • 614 funcionários do Google e 95 da OpenAI assinaram a carta
    • Todos foram verificados como funcionários atuais
    • Alguns participaram com nome real, enquanto muitos assinaram como anônimos (Anonymous)
  • Era possível assinar de forma anônima ou identificada, e todas as assinaturas foram validadas por meio de um processo de comprovação de vínculo empregatício
    • Métodos de verificação: autenticação por e-mail corporativo, login no Google Form ou envio de foto de documento de identidade
    • Os dados pessoais dos signatários anônimos são apagados automaticamente em até 24 horas após a verificação

Significado da carta

  • Um caso claro de definição de limites éticos para o uso militar dentro de empresas de IA
  • Funcionários do Google e da OpenAI expressaram publicamente a posição de priorizar princípios comuns acima da competição entre empresas
  • Tem grande importância como mecanismo interno de contenção contra o uso indevido de tecnologias de vigilância e letalidade autônoma em IA

3 comentários

 
chcv0313 2026-03-03

Sendo uma agência de inteligência dos EUA, até daria para imaginar que desenvolveriam isso por conta própria.... Até porque eles provavelmente seriam melhores em coletar dados para treinamento

 
kimjoin2 2026-03-01

Uau

 
GN⁺ 2026-03-01
Comentários do Hacker News
  • Este assunto parece ter um impacto muito maior sobre a economia dos EUA e sobre o Estado de direito como um todo
    Se o governo puder usar regras de compras criadas em nome da segurança nacional para punir a Anthropic por “falta de lealdade”, outras empresas como Apple ou Amazon também poderão correr o mesmo risco no futuro
    Este é um momento de virada importante para os Estados Unidos

    • O governo está se degradando em uma cacistocracia fora da lei que reescreve os fatos
      Achei sensato que a Anthropic tenha deixado claro que seus modelos não se alinham ao propósito de “matança automatizada em larga escala” do Departamento de Defesa dos EUA
      Operar armas com LLMs seria um erro historicamente terrível
    • Isso parece uma reencenação moderna da audiência de segurança de Oppenheimer em 1954
    • Este governo está criando um “momento decisivo para os EUA” atrás do outro
    • Já não sei mais em quem confiar. Passei tempo demais acreditando que tudo ficaria bem
    • Na verdade, nada disso parece novidade; parece apenas o normal de sempre
  • Se a Anthropic cair, isso será mais um prego no caixão da confiança nos Estados Unidos
    Empresas assinantes perderão ferramentas importantes por causa de uma única fala do presidente e passarão a duvidar se é seguro depender de outras empresas americanas

    • Já existe no mundo todo a sensação de que depender de empresas dos EUA é arriscado
      Hoje em dia, algo que antes levaria anos pode acontecer em um dia por causa de um único post no Truth Social
    • Sinceramente, parte de mim até quer ver a Anthropic ruir, mas o efeito colateral seria tão grande que eu mesmo acabaria prejudicado
    • Em qualquer país existem leis que permitem confiscar propriedade privada em nome do “interesse nacional”
      No fim, alguém vai atender às exigências do Departamento de Defesa, e mesmo que a Anthropic resista, o resultado não vai mudar
      Foi um erro o DoD tê-los classificado como “vulnerabilidade da cadeia de suprimentos”. Se simplesmente tivessem usado o DPA, teria saído muito mais barato e silencioso
    • A Anthropic acabará saindo dos EUA
      Assim como cientistas fugiram da Alemanha nazista para os EUA no passado e participaram do Projeto Manhattan, desta vez os talentos de IA é que deixarão os Estados Unidos
    • Dizer “não” não destrói a confiança; é manter princípios
  • Vigilância em massa dentro do próprio país pode até parecer tolerável para os cidadãos locais, mas como os americanos se sentiriam se outro país fizesse o mesmo?
    Esse tipo de política acaba permitindo que o mundo inteiro vigie uns aos outros

    • Os americanos acreditam que são excepcionais, então acham que podem fazer coisas que os outros não podem
    • Às vezes parece até melhor ser vigiado pela China do que pelos EUA. O sistema judicial americano pode ser muito mais assustador
    • A declaração da Anthropic foi impressionante
      Havia uma nuance de que vigilância estrangeira ou armas autônomas seriam aceitáveis, desde que não ameaçassem a vida de cidadãos americanos
      Fico me perguntando se isso reflete a visão de parte dos americanos ou se foi uma formulação pensada para agradar patriotas radicais
    • Para quem, como eu, vem criticando publicamente o governo há mais de 10 anos, é difícil acreditar que uma IA de vigilância me deixaria passar despercebido
      Vendo como o governo tem agido ultimamente, isso me preocupa bastante
    • Quando olho os principais artigos de IA hoje, a maioria dos nomes é de pesquisadores não americanos
      Os EUA passaram tempo demais como superpotência e parecem ter desenvolvido um vício em poder, do tipo “nós estamos sempre certos”
  • Empresas são feitas de pessoas, então quando o governo impõe políticas, a inovação morre
    Forçar grandes cientistas e engenheiros à submissão é desperdício

    • Se o governo quer X, e a empresa A diz “isso eu não posso fazer”, é natural dentro do sistema cortar relações comerciais
      Mas interromper todos os negócios com a empresa pode ser excessivo
      Por exemplo, se uma empresa de tomate enlatado disser “não usem isso na guerra ao terror”, pode ser razoável o governo evitar essa empresa
    • A essência do governo é o monopólio da coerção
      Mesmo quando perde poder, esse monopólio não desaparece. Ainda mais se o líder estiver controlando figuras influentes da sociedade por meio de pontos fracos
    • Também se ouve o cinismo: “Então pra onde você emigraria, Rússia? China? Emirados Árabes?”
  • A recusa da Anthropic a “vigilância doméstica em massa e letalidade autônoma” citada em seu comunicado é uma armadilha
    A palavra “doméstica” não significa nada.
    Segundo o acordo Eyes, os países contornam a proibição de vigiar seus próprios cidadãos compartilhando dados entre si
    No fim, todos os países vigiam uns aos outros, e a lei é só um enfeite para tranquilizar o público

    • Nós nos sentimos seguros por sermos cidadãos americanos, mas a internet não tem fronteiras
      Bots espiões não têm noção de cidadania, e toda atividade digital é alvo de vigilância
      Se Google ou TikTok conseguem fazer isso, então governos ou uma IA agêntica como o ChatGPT também conseguem
    • A Anthropic deveria ter defendido que os militares dos EUA não possam aplicar a cidadãos americanos dados coletados por entidades estrangeiras
    • “Esperança” não é estratégia
      O que está acontecendo agora não é uma questão de IA, e sim um teste de lealdade
      É a troca entre financiamento estatal e lealdade, e um momento de escolha que chegará para todos
      No fim, tornar-se cúmplice vira prova de lealdade
      Então não espere; exija e resista
    • Na verdade, nem está claro se LLMs são mesmo necessários para vigilância doméstica
      Modelos como EmbeddingGemma ou Qwen3 já bastam para fazer clusterização de dados
    • Então por que exatamente o Departamento de Defesa quer tanto um LLM? Essa é a pergunta central
  • Os EUA já estão funcionando como uma economia de comando
    Na pandemia, também cresceram apenas com gasto público sob a aparência de “empresa privada”
    Se o Departamento de Defesa não tem uma IA melhor que a do setor privado, isso é uma confissão de incompetência
    Agora seria preciso reformar a estrutura militar e substituir a liderança incompetente

    • Sem gasto público, o crescimento ficaria negativo, mas isso vale para qualquer país
      E me parece óbvio que o governo não teria uma IA generativa melhor do que a Anthropic
    • Há grande chance de os EUA em breve socorrerem OpenAI ou Nvidia com algum tipo de resgate financeiro
      Mesmo com mudança de governo, os gastos militares continuarão subindo, e esse dinheiro irá para empresas que não ligam para matar pessoas
      O alerta de Eisenhower acabou se tornando realidade
    • Também há quem aponte que gastos militares não são a maior rubrica das despesas tributárias
    • Não é exatamente novidade que os militares comprem coisas inúteis
    • Na verdade, essa estrutura de economia controlada existe em todos os países
      A diferença era que o capitalismo ao menos selecionava elites por desempenho, mas até isso ficou turvo desde 2011
  • Organização dos acontecimentos em uma linha do tempo

  • Junto com as discussões para classificar a Anthropic como risco de segurança da cadeia de suprimentos, houve também a ameaça de tomar a empresa em nome da segurança nacional
    A previsão é que a OpenAI acabe seguindo caminho semelhante: privatização dos lucros, socialização das perdas

    • George Hotz já disse que começou o tinygrad por receio da possível nacionalização da Nvidia
    • Essa tendência parece uma teoria da ferradura em que os extremos da nacionalização se encontram. É engraçado, mas é uma realidade amarga
  • Um site estaria coletando dados de identificação de ex-funcionários e funcionários atuais da OpenAI e do Google com determinada orientação política
    Dizem que ele exige verificação com e-mail corporativo, foto do crachá etc., e que armazena tudo em uma nuvem sediada nos EUA
    O operador é anônimo, e parece fácil imaginar várias forças usando esses dados para diferentes objetivos

  • A frase “esperamos que líderes deixem de lado suas diferenças e rejeitem isso juntos” soa bem, mas é preciso pensar no que acontece se essa esperança fracassar

    • A humanidade sempre avançou rumo aos problemas em meio à fragmentação coletiva. É apenas uma forma de seleção natural
    • Se a Anthropic realmente quiser sustentar seus princípios, uma opção seria até encerrar voluntariamente a empresa
      Na prática isso é difícil, mas se houvesse uma decisão dessas, eu respeitaria
    • Hoje em dia é difícil confiar na liderança de tecnologia
    • Pelo histórico do Google com protestos internos e pela cultura cada vez mais “amazonificada”, parece provável que desta vez também fechem contratos em silêncio ou esmaguem a resistência interna
    • Já não acho que dê para depositar esperança em líderes como Sam ou Dario