3 pontos por GN⁺ 2026-02-28 | 3 comentários | Compartilhar no WhatsApp
  • O CEO da OpenAI, Sam Altman, anunciou que chegou a um acordo para implantar modelos em redes classificadas com o Departamento de Defesa dos EUA (DoD)
  • O acordo inclui os princípios de proibição de vigilância doméstica em massa e de responsabilidade humana pelo uso da força, incluindo sistemas de armas autônomas, e o Departamento de Defesa também concordou com esses princípios
  • Como condições, serão implementadas salvaguardas técnicas para garantir que os modelos funcionem como pretendido, a implantação ocorrerá apenas em redes de nuvem e haverá atuação de engenheiros de implantação em campo (FDE)
  • A OpenAI pediu que o Departamento de Defesa ofereça essas mesmas condições a todas as empresas de IA, afirmando que são condições que todas podem aceitar
  • Também expressou forte esperança de reduzir a tensão por meio de um acordo razoável, em vez de recorrer a medidas legais ou governamentais

Conteúdo do acordo

  • A OpenAI firmou um acordo para implantar modelos em redes classificadas do Departamento de Defesa
  • Durante as negociações, avaliou que o Departamento de Defesa demonstrou profundo respeito pela segurança e disposição para atuar em parceria em busca do melhor resultado

Princípios de segurança

  • A segurança em IA e a ampla distribuição de seus benefícios são o núcleo da missão da OpenAI
  • Dois princípios centrais de segurança incluídos no acordo:
    • Proibição de vigilância doméstica em massa
    • Responsabilidade humana pelo uso da força, incluindo sistemas de armas autônomas
  • O Departamento de Defesa também concordou com esses princípios, refletindo-os em leis e políticas e explicitando-os no acordo

Salvaguardas técnicas e condições de implantação

  • Serão implementadas salvaguardas técnicas (technical safeguards) para garantir que os modelos funcionem como pretendido, algo que o Departamento de Defesa também queria
  • Para dar suporte aos modelos e garantir a segurança, haverá engenheiros de implantação em campo FDE (Field Deployment Engineer)
  • A condição é de implantação apenas em redes de nuvem

Pedido de ampliação para todo o setor

  • A OpenAI pediu ao Departamento de Defesa que ofereça essas mesmas condições a todas as empresas de IA
  • A posição da empresa é que são condições que todas as empresas podem aceitar (willing to accept)
  • Também expressou forte esperança de reduzir a tensão por meio de um acordo razoável, afastando-se de medidas legais ou governamentais

3 comentários

 
xguru 2026-02-28

No fim, o Departamento de Defesa dos EUA deixou a Anthropic de lado e escolheu a OpenAI, mas há uma diferença de formulação que costuma passar batida.

A OpenAI também propôs mecanismos concretos de implementação, como a criação de salvaguardas técnicas, o envio de FDEs (engenheiros de campo) e implantação dedicada em nuvem.
A Anthropic exigiu cláusulas de exceção no nível dos termos de uso.

Do ponto de vista do Departamento de Defesa dos EUA, isso parece ter sido anunciado quase como uma punição por ressentimento, sob a leitura de que "uma empresa privada exerce poder de veto sobre casos de uso individuais".

Esse acordo foi anunciado pouco depois de a Anthropic ser classificada como risco para a cadeia de suprimentos,
e, olhando a matéria da Axios, o Departamento de Defesa usou o confronto com a Anthropic para definir o tom das negociações com outras empresas de IA;
a OpenAI, sob essa pressão, acabou conduzindo um acordo em um formato que o Departamento de Defesa podia aceitar.

A diferença na forma das declarações oficiais também é grande.

Sam Altman disse que "o Departamento de Defesa demonstrou profundo respeito pela segurança",
enquanto a Anthropic manteve até o fim o tom de que "não pode, em consciência, concordar com as exigências do Departamento de Defesa".

Mesmo partindo dos mesmos princípios, parece que a diferença foi grande em termos de preservar ou não a imagem do Departamento de Defesa;
no fim, como a OpenAI aceitou e isso deixaria a situação com uma aparência estranha,
Sam Altman acrescentou no fim algo como "por favor, ofereçam essas condições igualmente a todas as empresas de IA",
o que parece ter sido uma mensagem indireta pedindo uma flexibilização das medidas contra a Anthropic.

 
lamanus 2026-03-01

Mesmo sendo um contrato do mesmo nível, a confiança e a imagem passam uma sensação bem diferente. Acho que vou até cancelar minha assinatura do GPT.

 
GN⁺ 2026-02-28
Comentários do Hacker News
  • Não entendo como funcionários da OpenAI participaram da assinatura de “We Will Not Be Divided” e ainda assim continuam trabalhando lá depois deste episódio
    Se a OpenAI tivesse mantido as mesmas condições exigidas pela Anthropic, o governo não teria aprovado este contrato
    No fim, só dá para ver isso como um acordo implícito de que a OpenAI não vai realmente fazer valer as linhas vermelhas
    • Acho que, quando Sam Altman foi demitido e depois voltou, os funcionários focados em segurança já tinham ido embora
      Parece que a maioria dos que restaram está lá principalmente por causa das ações
    • Mas dizem que a OpenAI também incluiu no contrato os mesmos princípios da Anthropic
      Afirmaram que deixaram explícitos “proibição de vigilância doméstica em larga escala” e “responsabilidade humana pelo uso da força”, e que o DoW (Department of War) também concordou com isso
    • No fim, isso sugere que todas as grandes empresas de IA vão acabar assinando o uso opaco da tecnologia para fins militares
    • Vendo o último ano do governo Trump, esse tipo de negociação irracional não surpreende nem um pouco
      O jeito deles é gastar capital político à toa e fechar acordos piores
    • Acho que, por trás disso, há uma intenção política de o governo controlar empresas
      A OpenAI pode ter apresentado as mesmas condições da Anthropic, mas o governo talvez tenha feito vista grossa por causa de dinheiro de lobby ou do efeito de PR
  • Se você está insatisfeito com isso, acho que precisa votar com a carteira
    Eu também apaguei o ChatGPT, cancelei a assinatura e decidi investir mais na Anthropic
    • Eu também tinha cancelado a assinatura do Claude mais ou menos nessa época, mas com isso tudo eu assinei o Claude novamente
      Senti que uma postura baseada em princípios importa, e agora não confio mais na OpenAI
    • Também acabei de cancelar minha assinatura
      Perdi o pouco de respeito que ainda tinha por Sam Altman, e a realidade de a IA estar contaminada pela ganância humana me dá nojo
      Os ideais do começo da OpenAI como organização sem fins lucrativos desapareceram por completo
      Todo mundo deveria cancelar a assinatura e tributar pesadamente empresas e CEOs assim
    • Na verdade, eu já tinha migrado para Claude e Gemini há 4 meses
      Só pela qualidade do produto já dava para sentir que a OpenAI não é mais a mesma de antes
    • Apaguei todas as conversas e excluí completamente a conta
    • Estou na mesma. Não vou mais gastar nem um centavo com a OpenAI
      Vou observar quais escolhas o Google vai fazer
  • Acho que Sam Altman é uma das figuras menos confiáveis da indústria de IA
    Expressões que ele usa, como “responsabilidade humana pelo uso da força”, soam como fala evasiva
    • “Responsabilidade humana” não é o mesmo que “decisão humana”
      No fim, isso ainda significa que armas autônomas letais são possíveis
      Mesmo que o presidente ou o Departamento de Defesa sejam apontados como ‘responsáveis’, na prática não seria possível responsabilizá-los
  • Só o fato de decidirem chamar o órgão do governo de “Department of War” já diz tudo
  • Há uma explicação sobre a diferença entre os contratos da OpenAI e da Anthropic dada pelo subsecretário de Estado
    No primeiro post, ele diz que o contrato da OpenAI inclui salvaguardas baseadas em restrições legais
    No segundo post, afirma que o contrato foi fechado com base em “todos os usos legais”, e sustenta que essa é uma abordagem que coloca a autoridade no sistema democrático
    Dizem que a Anthropic recusou esse meio-termo
    • Mas a promessa do governo de que “só fará coisas legais” não me tranquiliza nem um pouco
      No passado já houve muitos casos de atos ilegais serem apresentados como legais, e até de a própria lei ter sido mudada
      No fim, só a lei não consegue impedir o abuso de poder por parte do governo
    • A fala desse subsecretário é apenas discurso promocional interno do Executivo, não uma análise objetiva
    • Além disso, ele não participou de fato da negociação
      Mesmo que a explicação dele esteja correta, é difícil acreditar até que um veículo confiável publique o contrato completo
      Se isso for verdade, algo como boicotar a OpenAI e as Forças Armadas dos EUA parece uma resposta adequada
  • Segundo a CNN, a OpenAI também tem as mesmas linhas vermelhas (redlines) da Anthropic
    Artigo relacionado
    • Mas esperar coerência lógica do governo Trump é pedir demais
      Talvez o problema não sejam as linhas vermelhas, e sim o fato de o governo ver a Anthropic como adversária política
  • No começo, isso me pareceu o típico comportamento oportunista do Sam Altman, e eu também pensei em cancelar minha assinatura
    Mas, olhando de forma mais objetiva, o ponto central é se quem decide o que é “uso legal” é o governo ou a empresa de IA
    Pelo tweet relacionado, parece que a Anthropic tentou refletir esse critério diretamente na constituição do Claude
    No fim, eu cancelei a assinatura até a OpenAI se posicionar com clareza
    • Na verdade, o DoW vinha concordando com as condições da Anthropic havia mais de um ano
      Então, de repente, passou a exigir renegociação ameaçando com designação SCR e aquisição compulsória via DPA
      Se o contrato da OpenAI for semelhante ao da Anthropic, isso é realmente duplo padrão e injusto
  • É estranho que o contrato tenha sido fechado se a OpenAI tem as mesmas linhas vermelhas da Anthropic
    • Aposto que o Sam prometeu ao Departamento de Defesa que seriam linhas vermelhas temporárias
      Com o tempo, permitiriam modelos para armas autônomas, e as funções de vigilância poderiam ser contornadas via Palantir
    • Parece que Sam usou a proximidade com o governo para conter a Anthropic
    • Não dá para confiar no que Sam diz
      É bem possível que isso seja uma mentira estratégica para fazer a Anthropic parecer pior
    • Parece uma postura dúbia, do tipo “concordamos com os princípios, mas não vamos segui-los diretamente”
    • No fim, o objetivo real era “concentrar os contratos de IA nas mãos do Sam”, e a polêmica sobre as linhas vermelhas era só um pretexto
  • Eu também apaguei o app e cancelei a assinatura
    Sem base de usuários, a OpenAI não consegue manter a valorização inflada atual
    Outros modelos já são competitivos o bastante
  • Agora precisamos de um grupo onde tecnólogos éticos possam se reunir
    Estou cansado desse tipo de conduta corrupta
    • Precisamos de uma nova bandeira que permita expressar com facilidade que alguém é um “tecnólogo ético” e também conectar essas pessoas entre si