2 pontos por GN⁺ 2026-03-05 | 3 comentários | Compartilhar no WhatsApp
  • O CEO da Anthropic, Dario Amodei, criticou duramente, em um memorando interno, o contrato da OpenAI com o Departamento de Defesa dos EUA, chamando-o de "teatro de segurança" (safety theater)
  • A Anthropic já possuía um contrato militar de US$ 200 milhões, mas o acordo fracassou quando o Departamento de Defesa exigiu acesso irrestrito à tecnologia
  • A OpenAI acabou fechando contrato com o Departamento de Defesa, e Sam Altman afirmou que o acordo incluía as mesmas proteções de linha vermelha defendidas pela Anthropic
  • Amodei disse aos funcionários que Altman está tentando se apresentar como um "mediador da paz e fazedor de acordos" e classificou a mensagem da OpenAI como "mentiras descaradas"
  • Após esse contrato, o número de exclusões do ChatGPT disparou 295%, enquanto a opinião pública pareceu reagir de forma mais favorável à Anthropic

Conteúdo do memorando interno de Dario Amodei

  • Amodei descreveu o acordo da OpenAI com o Departamento de Defesa como "safety theater" no memorando interno reportado pelo The Information
  • Ele escreveu que "a principal razão pela qual a OpenAI aceitou esse contrato e nós o recusamos foi porque eles estavam preocupados em acalmar os funcionários, enquanto nós estávamos preocupados em realmente prevenir abusos"
  • Também afirmou que Altman está tentando se apresentar como um "mediador da paz e fazedor de acordos" e chamou diretamente a mensagem da OpenAI de "straight up lies" (mentiras descaradas)

Como fracassaram as negociações entre a Anthropic e o Departamento de Defesa

  • A Anthropic recusou a exigência de acesso irrestrito à sua tecnologia de IA nas negociações com o Departamento de Defesa dos EUA
    • A empresa queria garantias de que o DoD não usaria sua IA para vigilância doméstica em larga escala nem para desenvolver armas autônomas
    • Como essa condição não foi aceita, o contrato de US$ 200 milhões foi cancelado
  • Depois disso, o DoD assinou um novo contrato com a OpenAI
    • Sob o governo Trump, o Departamento de Defesa, conhecido como "Department of War", fechou contrato com a OpenAI em vez da Anthropic
    • Sam Altman anunciou que o novo contrato de defesa incluía proteções para as mesmas linhas vermelhas levantadas pela Anthropic
  • Em uma postagem no blog, a OpenAI declarou que seus sistemas de IA podem ser usados para "all lawful purposes" (todos os fins legais)
    • Segundo o blog da OpenAI, "o Departamento de Defesa considera a vigilância doméstica em larga escala ilegal e deixou claro nas interações que não planeja usar isso para esse fim"
    • A empresa explicou que isso foi explicitamente refletido no contrato, por estar fora do escopo de uso legal

Objeções específicas da Anthropic

  • A Anthropic se opôs especificamente à exigência de que o Departamento de Defesa pudesse usar sua IA para "any lawful use" (qualquer uso legal)
  • Críticos apontam que as leis podem mudar, e algo que hoje é ilegal pode ser permitido no futuro

Reação do público e impacto no mercado

  • Após o anúncio do contrato da OpenAI com o Departamento de Defesa, o número de exclusões do ChatGPT disparou 295%
    • Isso indica que o público enxerga o contrato militar da OpenAI como suspeito ou pouco transparente
  • Amodei escreveu no memorando que "essa tentativa de spin/gaslighting não está funcionando bem com o público nem com a mídia; a maioria vê o contrato da OpenAI como suspeito e nos vê como heróis"

Clima interno na Anthropic

  • Amodei enfatizou aos funcionários que era preciso impedir que a “mensagem distorcida” da OpenAI afetasse a equipe internamente
  • Ele avaliou que a estratégia de relações públicas da OpenAI só convence alguns usuários online, mas fracassou em persuadir o público em geral

3 comentários

 
jjpark78 2026-03-05

Mas então por que bloquearam o opencode... buá...

 
GN⁺ 2026-03-05
Opiniões do Hacker News
  • Quando @sama anunciou, poucas horas depois, que a OpenAI fecharia o mesmo contrato nas mesmas condições no lugar da Anthropic, pareceu óbvio que o DoW ou a OAI estava distorcendo os fatos
    Se o DoW rejeitou as condições da Anthropic, então as condições da OAI provavelmente eram praticamente inexequíveis
    Lendo de perto, parecia algo como a condição de que “o DoW não violaria as próprias regras que ele mesmo estabeleceu”

    • Parece que a OpenAI está tentando se proteger atrás da expressão “todos os usos legais
      Sam Altman disse que embutiria regras no modelo para evitar uso indevido pelo DoD, mas isso equivale a dizer que resolveria o problema de alignment no curto prazo. Difícil de acreditar
    • Usuários comuns do ChatGPT deveriam excluir seus GPTs e apagar a conta no portal de privacidade da OpenAI
    • Não perdi apenas o respeito por Sam Altman, mas também completamente por Paul Graham
      Antes eu gostava dos ensaios dele, mas cada vez mais ele me parecia alguém com pouca autorreflexão e com a ideia de que startups são tudo na vida
      Desta vez, ver ele defendendo Altman foi decepcionante demais. No tweet dele, ele está ignorando a realidade
      Talvez ele sinta que não pode criticar Altman por se sentir responsável por tê-lo apresentado ao mundo
    • O destino de Dario parece já estar traçado. O mundo é governado por poder, não por conhecimento ou riqueza
      A maioria dos tecnólogos nunca estudou filosofia política, e a antiga história do anel de Giges continua atual
    • Desde o começo eu também achei que tanto o DoW quanto a OAI estavam escondendo alguma coisa. Estava claro demais. Talvez devessem ter perguntado ao ChatGPT antes do anúncio
  • Isso não pode ser visto apenas como uma questão ética. Há capital gigantesco envolvido
    Treinar modelos de ponta custa uma fortuna astronômica, e só instituições como o DoD conseguem bancar isso
    A Anthropic rejeitar um contrato com o Departamento de Defesa por questões de segurança foi uma grande aposta. Em troca, ela espera que a abordagem de Constitutional AI seja recompensada pelo mercado
    A OpenAI quer o dinheiro do Departamento de Defesa sem perder a imagem amigável ao consumidor. Mas não dá para ficar com os dois lados

    • O contrato é de cerca de 200 milhões de dólares, o que não é tanto assim para empresas que gastam bilhões em infraestrutura
      Com toda essa situação, talvez a Anthropic até tenha acabado gerando mais receita
      O verdadeiro risco é o governo classificar a Anthropic como risco para a cadeia de suprimentos
    • Mais do que uma “batalha ética”, é, como sempre, uma disputa por lucro
  • Parece contraditório a Anthropic se opor à vigilância do DoD enquanto coopera com a Palantir

    • Mas a Palantir aceitou as restrições de uso da Anthropic, enquanto o DoD recusou
      Vendo que o DoD encerrou o acordo e fez um novo com a OpenAI, fica claro que havia uma diferença substancial entre as condições das duas empresas
    • A Palantir não é uma empresa que faz vigilância direta como a Flock, e sim fornece uma plataforma de integração de dados
      Ela integra vários tipos de dados sob contratos governamentais, inclusive de investigação e segurança, mas não os coleta diretamente
      Veja este artigo da Wired
    • Talvez o contrato com a Palantir excluísse vigilância doméstica. É possível que a Anthropic tenha imposto como condição a “proibição de vigilância doméstica”
    • De fato, a Anthropic explicitou, também na parceria com a Palantir, restrições de uso como “projeto de armas, censura, vigilância doméstica, desinformação e operações cibernéticas maliciosas
      Veja este artigo da TechCrunch
    • É bem provável que o contrato com a Palantir tivesse condições parecidas. É estranho afirmar com certeza que não tinha
  • O memorando completo do Dario foi publicado aqui

    • É surpreendente ver uma hostilidade pública tão explícita entre os principais laboratórios de IA
      Não parece apenas competição, mas um choque ideológico
      Além disso, chamar funcionários da OpenAI de “idiotas crédulos do Twitter” não parece uma boa escolha do ponto de vista de atrair talentos
      Veja este tweet de exemplo
    • Uma versão em texto do memorando também pode ser vista no Pastebin
    • Dario disse que o spin e o gaslighting da OpenAI não funcionam com o público, e enfatizou que é preciso impedir que os funcionários da OpenAI sejam enganados pela narrativa do Altman
  • @pg descreveu @sama como “alguém que, mesmo se fosse largado numa ilha de canibais, em cinco anos seria o rei”, mas agora isso soa como uma citação simbólica da sede de poder
    Dario parece uma figura genuína rara nos tempos atuais. Espero que ele não vacile

    • Mas a Anthropic também fez parceria com a Palantir, então não está completamente limpa
      No fim, todas são empresas com fins lucrativos, e o fato de um lado estar errado não torna automaticamente o outro certo
      Veja o link do anúncio oficial
    • Se olharmos qual dos dois CEOs está tentando exercer poder informal sobre a tomada de decisão do governo, só um deles está realmente tentando expandir seu poder
      Reconheço que Altman defendeu a Anthropic na cláusula SCR, mas isso é o mínimo do mínimo
    • Há muito tempo me incomoda a idolatria excessiva em torno de Sam Altman. Adoração sem crítica sempre é suspeita
      Essa citação já soava negativa desde o começo. Esta comunidade também precisa ter um ceticismo natural em relação à hierarquia
    • Essas brigas online entre bilionários parecem uma espécie de UFC do mundo tech. Não há mais motivo para pessoas comuns tomarem partido
    • Eu não imaginava que a expressão “olhando em retrospecto?” pudesse soar tão pesada
  • Na verdade, os dois laboratórios estão fazendo ‘teatro de segurança (safety theater)’
    Sem resolver o problema de alignment, estão entrando numa perigosa corrida por capacidades por pressão do mercado

  • Este é um chamado à ação para cancelar a assinatura da OpenAI e excluir a conta por causa do que aconteceu desta vez
    Não fazer nada é praticamente o mesmo que consentir

  • Sam Altman mentindo? Já nem surpreende mais

    • Ele é o tipo de pessoa que empilha mentira sobre mentira
      Vai tornando as pessoas cada vez mais dependentes dele, até que depois ninguém mais consiga removê-lo
  • A OpenAI está numa situação em que tenta sobreviver dependendo de subsídios do governo
    Sam e a diretoria já perceberam a crise e precisam de dinheiro público

    • Exato. A estratégia da OpenAI é se tornar uma empresa ‘grande demais para quebrar’
      Também há um cálculo político para sustentar o mercado às vésperas da eleição
      Nvidia, Micron, Oracle e Microsoft estão todos envolvidos nesse movimento
  • Foi criado um site com linha do tempo organizando os acontecimentos recentes entre Anthropic, OpenAI e o governo dos EUA
    Link do post no HN

 
nemorize 2026-03-05

DoD: Department of Defense
..W: ..War