- O CEO da Anthropic, Dario Amodei, criticou duramente, em um memorando interno, o contrato da OpenAI com o Departamento de Defesa dos EUA, chamando-o de "teatro de segurança" (safety theater)
- A Anthropic já possuía um contrato militar de US$ 200 milhões, mas o acordo fracassou quando o Departamento de Defesa exigiu acesso irrestrito à tecnologia
- A OpenAI acabou fechando contrato com o Departamento de Defesa, e Sam Altman afirmou que o acordo incluía as mesmas proteções de linha vermelha defendidas pela Anthropic
- Amodei disse aos funcionários que Altman está tentando se apresentar como um "mediador da paz e fazedor de acordos" e classificou a mensagem da OpenAI como "mentiras descaradas"
- Após esse contrato, o número de exclusões do ChatGPT disparou 295%, enquanto a opinião pública pareceu reagir de forma mais favorável à Anthropic
Conteúdo do memorando interno de Dario Amodei
- Amodei descreveu o acordo da OpenAI com o Departamento de Defesa como "safety theater" no memorando interno reportado pelo The Information
- Ele escreveu que "a principal razão pela qual a OpenAI aceitou esse contrato e nós o recusamos foi porque eles estavam preocupados em acalmar os funcionários, enquanto nós estávamos preocupados em realmente prevenir abusos"
- Também afirmou que Altman está tentando se apresentar como um "mediador da paz e fazedor de acordos" e chamou diretamente a mensagem da OpenAI de "straight up lies" (mentiras descaradas)
Como fracassaram as negociações entre a Anthropic e o Departamento de Defesa
- A Anthropic recusou a exigência de acesso irrestrito à sua tecnologia de IA nas negociações com o Departamento de Defesa dos EUA
- A empresa queria garantias de que o DoD não usaria sua IA para vigilância doméstica em larga escala nem para desenvolver armas autônomas
- Como essa condição não foi aceita, o contrato de US$ 200 milhões foi cancelado
- Depois disso, o DoD assinou um novo contrato com a OpenAI
- Sob o governo Trump, o Departamento de Defesa, conhecido como "Department of War", fechou contrato com a OpenAI em vez da Anthropic
- Sam Altman anunciou que o novo contrato de defesa incluía proteções para as mesmas linhas vermelhas levantadas pela Anthropic
- Em uma postagem no blog, a OpenAI declarou que seus sistemas de IA podem ser usados para "all lawful purposes" (todos os fins legais)
- Segundo o blog da OpenAI, "o Departamento de Defesa considera a vigilância doméstica em larga escala ilegal e deixou claro nas interações que não planeja usar isso para esse fim"
- A empresa explicou que isso foi explicitamente refletido no contrato, por estar fora do escopo de uso legal
Objeções específicas da Anthropic
- A Anthropic se opôs especificamente à exigência de que o Departamento de Defesa pudesse usar sua IA para "any lawful use" (qualquer uso legal)
- Críticos apontam que as leis podem mudar, e algo que hoje é ilegal pode ser permitido no futuro
Reação do público e impacto no mercado
- Após o anúncio do contrato da OpenAI com o Departamento de Defesa, o número de exclusões do ChatGPT disparou 295%
- Isso indica que o público enxerga o contrato militar da OpenAI como suspeito ou pouco transparente
- Amodei escreveu no memorando que "essa tentativa de spin/gaslighting não está funcionando bem com o público nem com a mídia; a maioria vê o contrato da OpenAI como suspeito e nos vê como heróis"
Clima interno na Anthropic
- Amodei enfatizou aos funcionários que era preciso impedir que a “mensagem distorcida” da OpenAI afetasse a equipe internamente
- Ele avaliou que a estratégia de relações públicas da OpenAI só convence alguns usuários online, mas fracassou em persuadir o público em geral
3 comentários
Mas então por que bloquearam o opencode... buá...
Opiniões do Hacker News
Quando @sama anunciou, poucas horas depois, que a OpenAI fecharia o mesmo contrato nas mesmas condições no lugar da Anthropic, pareceu óbvio que o DoW ou a OAI estava distorcendo os fatos
Se o DoW rejeitou as condições da Anthropic, então as condições da OAI provavelmente eram praticamente inexequíveis
Lendo de perto, parecia algo como a condição de que “o DoW não violaria as próprias regras que ele mesmo estabeleceu”
Sam Altman disse que embutiria regras no modelo para evitar uso indevido pelo DoD, mas isso equivale a dizer que resolveria o problema de alignment no curto prazo. Difícil de acreditar
Antes eu gostava dos ensaios dele, mas cada vez mais ele me parecia alguém com pouca autorreflexão e com a ideia de que startups são tudo na vida
Desta vez, ver ele defendendo Altman foi decepcionante demais. No tweet dele, ele está ignorando a realidade
Talvez ele sinta que não pode criticar Altman por se sentir responsável por tê-lo apresentado ao mundo
A maioria dos tecnólogos nunca estudou filosofia política, e a antiga história do anel de Giges continua atual
Isso não pode ser visto apenas como uma questão ética. Há capital gigantesco envolvido
Treinar modelos de ponta custa uma fortuna astronômica, e só instituições como o DoD conseguem bancar isso
A Anthropic rejeitar um contrato com o Departamento de Defesa por questões de segurança foi uma grande aposta. Em troca, ela espera que a abordagem de Constitutional AI seja recompensada pelo mercado
A OpenAI quer o dinheiro do Departamento de Defesa sem perder a imagem amigável ao consumidor. Mas não dá para ficar com os dois lados
Com toda essa situação, talvez a Anthropic até tenha acabado gerando mais receita
O verdadeiro risco é o governo classificar a Anthropic como risco para a cadeia de suprimentos
Parece contraditório a Anthropic se opor à vigilância do DoD enquanto coopera com a Palantir
Vendo que o DoD encerrou o acordo e fez um novo com a OpenAI, fica claro que havia uma diferença substancial entre as condições das duas empresas
Ela integra vários tipos de dados sob contratos governamentais, inclusive de investigação e segurança, mas não os coleta diretamente
Veja este artigo da Wired
Veja este artigo da TechCrunch
O memorando completo do Dario foi publicado aqui
Não parece apenas competição, mas um choque ideológico
Além disso, chamar funcionários da OpenAI de “idiotas crédulos do Twitter” não parece uma boa escolha do ponto de vista de atrair talentos
Veja este tweet de exemplo
@pg descreveu @sama como “alguém que, mesmo se fosse largado numa ilha de canibais, em cinco anos seria o rei”, mas agora isso soa como uma citação simbólica da sede de poder
Dario parece uma figura genuína rara nos tempos atuais. Espero que ele não vacile
No fim, todas são empresas com fins lucrativos, e o fato de um lado estar errado não torna automaticamente o outro certo
Veja o link do anúncio oficial
Reconheço que Altman defendeu a Anthropic na cláusula SCR, mas isso é o mínimo do mínimo
Essa citação já soava negativa desde o começo. Esta comunidade também precisa ter um ceticismo natural em relação à hierarquia
Na verdade, os dois laboratórios estão fazendo ‘teatro de segurança (safety theater)’
Sem resolver o problema de alignment, estão entrando numa perigosa corrida por capacidades por pressão do mercado
Este é um chamado à ação para cancelar a assinatura da OpenAI e excluir a conta por causa do que aconteceu desta vez
Não fazer nada é praticamente o mesmo que consentir
Sam Altman mentindo? Já nem surpreende mais
Vai tornando as pessoas cada vez mais dependentes dele, até que depois ninguém mais consiga removê-lo
A OpenAI está numa situação em que tenta sobreviver dependendo de subsídios do governo
Sam e a diretoria já perceberam a crise e precisam de dinheiro público
Também há um cálculo político para sustentar o mercado às vésperas da eleição
Nvidia, Micron, Oracle e Microsoft estão todos envolvidos nesse movimento
Foi criado um site com linha do tempo organizando os acontecimentos recentes entre Anthropic, OpenAI e o governo dos EUA
Link do post no HN
DoD: Department of Defense
..W: ..War