- A OpenAI firmou um contrato com o Department of War para implantar sistemas avançados de IA em ambientes sigilosos e pediu que isso seja aplicado da mesma forma a todas as empresas de IA
- Afirmou que esse contrato inclui mais salvaguardas de segurança do que implantações anteriores de IA em ambientes sigilosos
- Estabeleceu como linha vermelha não usar a tecnologia da OpenAI para vigilância doméstica em larga escala, comando de armas autônomas e tomada de decisão automatizada de alto risco
- Mantém discricionariedade total sobre a pilha de segurança, implantação baseada em nuvem, intervenção de pessoal com autorização de segurança e fortes proteções contratuais
- Deixou claro ao Department of War que Anthropic não deve ser designada como risco de cadeia de suprimentos
Contrato com o Department of War
- A OpenAI firmou um contrato com o Department of War para implantar sistemas avançados de IA em ambientes sigilosos
- Pediu que essa implantação seja oferecida da mesma forma a todas as empresas de IA
- Este contrato inclui mais mecanismos de segurança do que contratos anteriores de implantação de IA em ambientes sigilosos
Manutenção das linhas vermelhas
- A tecnologia da OpenAI não será usada para vigilância doméstica em larga escala
- A tecnologia da OpenAI não será usada para comando de sistemas de armas autônomas
- A tecnologia da OpenAI não será usada para sistemas automatizados de tomada de decisão de alto risco (ex.: social credit)
Estrutura de proteção de segurança em múltiplas camadas
- Em contraste com alguns laboratórios de IA que, em implantações de segurança nacional, reduziram ou removeram proteções centradas em políticas de uso
- A OpenAI aplica uma abordagem ampliada em múltiplas camadas
- Mantém discricionariedade total sobre a pilha de segurança
- Mantém o modelo de implantação baseado em nuvem
- Estrutura com intervenção de pessoal da OpenAI com autorização de segurança
- Inclui fortes proteções contratuais
- Em paralelo com as proteções já previstas na legislação dos EUA
Posição sobre a Anthropic
- Manifestou oposição a designar a Anthropic como risco de cadeia de suprimentos
- Deixou essa posição clara ao Department of War
5 comentários
Acho que seria necessário organizar uma linha do tempo sobre isso. Também há quem diga que a OpenAI estava em negociações contratuais, não é?
Esse erro de resumo como "sem conteúdo" é novidade pra mim..
Parece que há casos assim porque ficou meio complicado para o X rastrear. Vamos tentar melhorar.
Sempre acompanho muito bem, obrigado.
Opiniões do Hacker News
O ponto central é a diferença entre a redação real do contrato da OpenAI e o que Altman diz
No contrato, está escrito que “não será usado para operar armas autônomas quando a lei ou a política exigirem controle humano”
Ou seja, se o Departamento de Defesa decidir que “controle humano não é necessário”, então isso passa a ser permitido
A Anthropic estabeleceu uma linha vermelha absoluta de “vigilância em massa jamais”, enquanto a OpenAI afrouxou isso para algo como “se a lei permitir, pode”
Assinar um contrato assim e depois fingir defender a Anthropic parece um show de PR raro até para este setor
No fio no X, a OpenAI afirmou que “o contrato com o Departamento de Defesa respeita nossas redlines”
Mas, segundo a reportagem da NPR, a Anthropic foi excluída do contrato justamente por manter o mesmo padrão, enquanto a OpenAI ficou com o dinheiro
Foi assim que conseguiu o contrato
Ainda assim, é questionável se esses guardrails conseguiriam impedir vigilância de civis
O problema da cláusula “Any Lawful Use” é que o Departamento de Defesa pode definir “legal” como bem entender
Basta um advogado interno redigir um memorando, e isso já vira legalidade
O abuso de poder do governo precisa ser corrigido com voto e reforma institucional
O sistema não foi desenhado para isso, mas a realidade é outra
No fim das contas, o recém-renomeado “Department of War” só vai desperdiçar dinheiro público comprando tecnologia inútil por preços altos
Dá pena dos cidadãos
A diferença entre Anthropic e OpenAI é que a Anthropic tentou impor tecnicamente as restrições, enquanto a OpenAI apenas prometeu em palavras que “espera que o governo não as viole”
Não surpreende que o governo tenha escolhido a segunda opção
Ou seja, fica aberta a possibilidade de “se for legal, então vigilância em massa ou armas autônomas letais também podem”
IA tomando decisões autônomas de matar é uma ideia extremamente perigosa
Não só por causa de superinteligência, mas porque até modelos pequenos já permitiriam a qualquer pessoa criar armas impossíveis de rastrear
Os modelos atuais foram treinados com uma postura positiva em relação à vida humana, mas, se isso for removido, o resultado é um sistema monstruoso
São apenas preditores probabilísticos de tokens
Por exemplo, programas montavam listas de alvos para matar e humanos operavam os drones
As pessoas parecem ter esquecido que a Anthropic colaborou com a Palantir
Quando isso veio à tona, só cobriram o caso com PR
Parece que a OpenAI está perdendo clientes por causa desta controvérsia e publicou esse texto como controle de imagem
A Anthropic queria mais regulação de IA por parte do governo, e no fim acabou sofrendo as consequências disso ela mesma
Isso tudo dá a impressão de que a OpenAI está respondendo com PR às críticas de que seus padrões éticos são fracos
Fora do país, continua possível fazer usos antiéticos