- O CEO da OpenAI, Sam Altman, anunciou que chegou a um acordo para implantar modelos em redes classificadas com o Departamento de Defesa dos EUA (DoD)
- O acordo inclui os princípios de proibição de vigilância doméstica em massa e de responsabilidade humana pelo uso da força, incluindo sistemas de armas autônomas, e o Departamento de Defesa também concordou com esses princípios
- Como condições, serão implementadas salvaguardas técnicas para garantir que os modelos funcionem como pretendido, a implantação ocorrerá apenas em redes de nuvem e haverá atuação de engenheiros de implantação em campo (FDE)
- A OpenAI pediu que o Departamento de Defesa ofereça essas mesmas condições a todas as empresas de IA, afirmando que são condições que todas podem aceitar
- Também expressou forte esperança de reduzir a tensão por meio de um acordo razoável, em vez de recorrer a medidas legais ou governamentais
Conteúdo do acordo
- A OpenAI firmou um acordo para implantar modelos em redes classificadas do Departamento de Defesa
- Durante as negociações, avaliou que o Departamento de Defesa demonstrou profundo respeito pela segurança e disposição para atuar em parceria em busca do melhor resultado
Princípios de segurança
- A segurança em IA e a ampla distribuição de seus benefícios são o núcleo da missão da OpenAI
- Dois princípios centrais de segurança incluídos no acordo:
- Proibição de vigilância doméstica em massa
- Responsabilidade humana pelo uso da força, incluindo sistemas de armas autônomas
- O Departamento de Defesa também concordou com esses princípios, refletindo-os em leis e políticas e explicitando-os no acordo
Salvaguardas técnicas e condições de implantação
- Serão implementadas salvaguardas técnicas (technical safeguards) para garantir que os modelos funcionem como pretendido, algo que o Departamento de Defesa também queria
- Para dar suporte aos modelos e garantir a segurança, haverá engenheiros de implantação em campo FDE (Field Deployment Engineer)
- A condição é de implantação apenas em redes de nuvem
Pedido de ampliação para todo o setor
- A OpenAI pediu ao Departamento de Defesa que ofereça essas mesmas condições a todas as empresas de IA
- A posição da empresa é que são condições que todas as empresas podem aceitar (willing to accept)
- Também expressou forte esperança de reduzir a tensão por meio de um acordo razoável, afastando-se de medidas legais ou governamentais
3 comentários
No fim, o Departamento de Defesa dos EUA deixou a Anthropic de lado e escolheu a OpenAI, mas há uma diferença de formulação que costuma passar batida.
A OpenAI também propôs mecanismos concretos de implementação, como a criação de salvaguardas técnicas, o envio de FDEs (engenheiros de campo) e implantação dedicada em nuvem.
A Anthropic exigiu cláusulas de exceção no nível dos termos de uso.
Do ponto de vista do Departamento de Defesa dos EUA, isso parece ter sido anunciado quase como uma punição por ressentimento, sob a leitura de que "uma empresa privada exerce poder de veto sobre casos de uso individuais".
Esse acordo foi anunciado pouco depois de a Anthropic ser classificada como risco para a cadeia de suprimentos,
e, olhando a matéria da Axios, o Departamento de Defesa usou o confronto com a Anthropic para definir o tom das negociações com outras empresas de IA;
a OpenAI, sob essa pressão, acabou conduzindo um acordo em um formato que o Departamento de Defesa podia aceitar.
A diferença na forma das declarações oficiais também é grande.
Sam Altman disse que "o Departamento de Defesa demonstrou profundo respeito pela segurança",
enquanto a Anthropic manteve até o fim o tom de que "não pode, em consciência, concordar com as exigências do Departamento de Defesa".
Mesmo partindo dos mesmos princípios, parece que a diferença foi grande em termos de preservar ou não a imagem do Departamento de Defesa;
no fim, como a OpenAI aceitou e isso deixaria a situação com uma aparência estranha,
Sam Altman acrescentou no fim algo como "por favor, ofereçam essas condições igualmente a todas as empresas de IA",
o que parece ter sido uma mensagem indireta pedindo uma flexibilização das medidas contra a Anthropic.
Mesmo sendo um contrato do mesmo nível, a confiança e a imagem passam uma sensação bem diferente. Acho que vou até cancelar minha assinatura do GPT.
Comentários do Hacker News
Se a OpenAI tivesse mantido as mesmas condições exigidas pela Anthropic, o governo não teria aprovado este contrato
No fim, só dá para ver isso como um acordo implícito de que a OpenAI não vai realmente fazer valer as linhas vermelhas
Parece que a maioria dos que restaram está lá principalmente por causa das ações
Afirmaram que deixaram explícitos “proibição de vigilância doméstica em larga escala” e “responsabilidade humana pelo uso da força”, e que o DoW (Department of War) também concordou com isso
O jeito deles é gastar capital político à toa e fechar acordos piores
A OpenAI pode ter apresentado as mesmas condições da Anthropic, mas o governo talvez tenha feito vista grossa por causa de dinheiro de lobby ou do efeito de PR
Eu também apaguei o ChatGPT, cancelei a assinatura e decidi investir mais na Anthropic
Senti que uma postura baseada em princípios importa, e agora não confio mais na OpenAI
Perdi o pouco de respeito que ainda tinha por Sam Altman, e a realidade de a IA estar contaminada pela ganância humana me dá nojo
Os ideais do começo da OpenAI como organização sem fins lucrativos desapareceram por completo
Todo mundo deveria cancelar a assinatura e tributar pesadamente empresas e CEOs assim
Só pela qualidade do produto já dava para sentir que a OpenAI não é mais a mesma de antes
Vou observar quais escolhas o Google vai fazer
Expressões que ele usa, como “responsabilidade humana pelo uso da força”, soam como fala evasiva
No fim, isso ainda significa que armas autônomas letais são possíveis
Mesmo que o presidente ou o Departamento de Defesa sejam apontados como ‘responsáveis’, na prática não seria possível responsabilizá-los
No primeiro post, ele diz que o contrato da OpenAI inclui salvaguardas baseadas em restrições legais
No segundo post, afirma que o contrato foi fechado com base em “todos os usos legais”, e sustenta que essa é uma abordagem que coloca a autoridade no sistema democrático
Dizem que a Anthropic recusou esse meio-termo
No passado já houve muitos casos de atos ilegais serem apresentados como legais, e até de a própria lei ter sido mudada
No fim, só a lei não consegue impedir o abuso de poder por parte do governo
Mesmo que a explicação dele esteja correta, é difícil acreditar até que um veículo confiável publique o contrato completo
Se isso for verdade, algo como boicotar a OpenAI e as Forças Armadas dos EUA parece uma resposta adequada
Artigo relacionado
Talvez o problema não sejam as linhas vermelhas, e sim o fato de o governo ver a Anthropic como adversária política
Mas, olhando de forma mais objetiva, o ponto central é se quem decide o que é “uso legal” é o governo ou a empresa de IA
Pelo tweet relacionado, parece que a Anthropic tentou refletir esse critério diretamente na constituição do Claude
No fim, eu cancelei a assinatura até a OpenAI se posicionar com clareza
Então, de repente, passou a exigir renegociação ameaçando com designação SCR e aquisição compulsória via DPA
Se o contrato da OpenAI for semelhante ao da Anthropic, isso é realmente duplo padrão e injusto
Com o tempo, permitiriam modelos para armas autônomas, e as funções de vigilância poderiam ser contornadas via Palantir
É bem possível que isso seja uma mentira estratégica para fazer a Anthropic parecer pior
Sem base de usuários, a OpenAI não consegue manter a valorização inflada atual
Outros modelos já são competitivos o bastante
Estou cansado desse tipo de conduta corrupta