- A OpenAI declarou em seu Estatuto (Charter) de 2018 uma “cláusula de autossacrifício” segundo a qual, se outro projeto focado em segurança se aproximasse da AGI, ela interromperia a competição e passaria a colaborar
- Segundo uma tabela que resume as falas de Sam Altman, a previsão para alcançar a AGI foi drasticamente encurtada, de 2033 para 2025, e recentemente surgiram até declarações de que “já criamos a AGI”
- No ranking de modelos da Arena.ai, o Claude da Anthropic e o Gemini do Google ocupam as primeiras posições, enquanto o GPT-5.4 da OpenAI aparece em 6º lugar
- O texto aponta que essa situação atende à condição apresentada no estatuto de “colaborar se surgir um concorrente com mais de 50% de chance de sucesso em até 2 anos”
- Como resultado, argumenta-se que a OpenAI deveria parar de competir e cooperar conforme seu estatuto, mas que, na prática, isso exemplifica o conflito entre idealismo e incentivos econômicos
A cláusula de autossacrifício no estatuto da OpenAI
- O estatuto da OpenAI de 2018 expressa a preocupação de que a corrida pelo desenvolvimento de AGI possa prejudicar a segurança
- Inclui a formulação de que, se um projeto que priorize alinhamento de valores e segurança se aproximar da AGI, a OpenAI interromperá a competição e oferecerá apoio
- O caso típico de acionamento é apresentado como uma situação em que houver mais de 50% de chance de sucesso em até 2 anos
- Essa cláusula continua publicada no site oficial (openai.com/charter) e segue sendo a política oficial da empresa
Mudanças nas previsões de Sam Altman sobre AGI
- Segundo a tabela, Altman antecipou continuamente o momento de chegada da AGI entre 2023 e 2026
- Em maio de 2023, disse que ela superaria o nível de especialistas “dentro de 10 anos”,
- mas em 2024~2025 passou a falar em “AGI em 2025” e até em “já criamos a AGI”
- A mediana das previsões após 2025 fica em cerca de 2 anos, alinhando-se à condição de acionamento do estatuto
- Em algumas entrevistas, também apareceu a expressão de que a empresa estaria “indo além da AGI rumo à ASI (superinteligência)”
Comparação do ranking de modelos da Arena.ai
- Entre os 10 principais modelos no leaderboard da Arena.ai, o Claude-opus-4-6 da Anthropic está em 1º lugar e o Gemini 3.1 do Google em 3º
- O GPT-5.4-high da OpenAI está em 6º, recebendo avaliação inferior à dos modelos concorrentes
- O texto afirma que os modelos da Anthropic e do Google são “centrados em segurança e alinhamento de valores” e os considera substitutos compatíveis para o GPT
A condição para interromper a competição foi atendida?
- Com o prazo para desenvolvimento de AGI reduzido para dentro de 2 anos e os modelos concorrentes à frente, avalia-se que a condição do estatuto de “interromper a competição e cooperar” foi atendida
- Há controvérsia sobre se a Arena.ai é adequada para medir AGI, mas o espírito do estatuto é evitar uma corrida armamentista
- Portanto, a conclusão é que a OpenAI deveria cooperar com Anthropic e Google
O descompasso entre idealismo e realidade
- O texto afirma explicitamente que, na prática, é improvável que a OpenAI pare de competir
- Este caso mostra a realidade em que princípios idealistas se tornam impotentes diante de incentivos econômicos
- Também aponta que a definição de AGI e seu horizonte temporal continuam mudando e que, recentemente, o foco se deslocou para discussões sobre ASI
1 comentários
Comentários do Hacker News
Nesta thread, todo mundo só está brigando por definições
O que realmente importa é o momento econômico — quando ocorre a transição de automação com assistência humana para produção totalmente autônoma por IA
Se você olhar para o ambiente atual de produção com IA, os humanos ainda fazem revisão, correção e supervisão. A IA lida com o volume, e os humanos ficam com o julgamento. No fim, o gargalo é o julgamento
Não substituiu o trabalho; só mudou ele de lugar. A remuneração global do trabalho gira em torno de 50 trilhões de dólares por ano, e os mercados de capitais estão apostando em quanto disso a IA pode absorver de forma real. O nome AGI não importa — o capital não liga para definição, e sim para se trabalho e produção podem ser separados
Sempre que vejo termos como “AGI” e “ASI”, eu os substituo mentalmente por “alguma coisa que ninguém consegue definir direito”
Ou seja, são conceitos tão mal definidos que não dá para tirar conclusões deles. Então eu simplesmente troco por um som tipo “skiptiboop”
Se AGI significa “IA de uso geral, e não para tarefas específicas”, então ela já existe.
Se significa “inteligência em nível humano em todas as tarefas”, então alguns humanos não seriam AGI.
Se significa “algoritmo mágico que faz tudo perfeitamente”, então isso provavelmente não existe.
Quando o termo AGI surgiu, provavelmente queria dizer algo como HAL 9000, mas agora virou um jogo de meta em constante mudança
No momento em que decidiram apostar tudo na comercialização da tecnologia, o resultado já estava definido
Os LLMs atuais já estão sendo usados de forma perigosa, e se esse tipo de notícia continuar chamando atenção, a OpenAI vai simplesmente apagar a carta do site em silêncio
Os modelos atuais ainda estão longe de AGI
A previsão do próximo token avançou de forma impressionante, mas ainda não há modelo do mundo real nem capacidade de aprendizado de verdade.
Sem supervisão humana, os limites ficam claros
Falaram em “a impotência do idealismo ingênuo”, mas eu vejo mais como o uso da linguagem idealista como ferramenta de marketing
Na prática, sempre foi uma organização orientada ao lucro que está mostrando cada vez mais sua verdadeira cara
AGI não vai chegar nos próximos 30 anos
Pesquisadores também dizem isso.
Uma AGI de verdade exigiria aprendizado contínuo e memória profunda, e os LLMs não conseguem fazer isso.
A “memória” atual é só busca e resumo — como se uma pessoa assistisse a uma aula de física, anotasse tudo em post-its, e depois outra pessoa folheasse isso e escrevesse a resposta
É preciso RL e reentreinamento, mas isso é caro, lento e complexo demais.
LLMs escrevem código impressionante, mas mesmo quando você diz “não apague os arquivos da pasta X”, eles acabam apagando.
Também seguem comandos inseridos por um atacante em documentos.
Sem memória real e RL em tempo real, esse tipo de problema não será resolvido
O tweet de Daniel Kokotajlo, a fala do Karpathy e a pesquisa com pesquisadores de IA mostram previsões bem mais curtas
Durante a conversa, parecem inteligentes, mas quando a sessão termina, esquecem tudo.
E mesmo durante a sessão o desempenho cai — contexto longo acaba atrapalhando
No fim, a ausência de uma estrutura de memória é o limite. Os humanos resolveram isso com memória de longo prazo e sono, mas os LLMs não.
Por mais inteligente que seja, um gênio sem memória continua sendo apenas um savant de curto prazo
LLMs conseguem copiar e reorganizar instantaneamente milhares de páginas.
Já existe RL em tempo de teste e aprendizado contínuo com LoRA, e por algumas definições AGI já foi alcançada.
Só que ainda não é economicamente viável.
E, em vez de os empregos de programador desaparecerem, acho que vamos precisar ainda mais de pessoas com capacidade de pensamento computacional
É uma experiência pessoal, mas recentemente o GPT 5.4 foi melhor para mim que o Opus 4.6
Ainda assim, é curioso que ele apareça mais abaixo no ranking do Chatbot Arena
Ele se baseia em votos de usuários comuns, então falta validação de expertise, e grandes empresas também manipulam o ranking
Para comparar os modelos mais recentes, ele não significa muita coisa
Com o mesmo prompt, o GPT 5.4 fez refatorações desnecessárias e introduziu bugs, enquanto o Opus 4.6 reconheceu funcionalidades já implementadas e sugeriu testes e atualização da documentação
Acho que o Opus 4.6 continua sendo o melhor agente de programação
A previsão de “estagiário automatizado de pesquisa em IA em setembro de 2026, pesquisador de IA completo em março de 2028” é interessante
Isso também coincide com o momento em que o projeto Autoresearch do Karpathy chegou ao topo do HN.
Provavelmente os grandes laboratórios já estão testando versões muito maiores disso
Concordo com “a impotência do idealismo ingênuo” e com a meta móvel da AGI
Hoje em dia muita gente fala em ASI no lugar de AGI, dando a entender que talvez a AGI já tenha sido alcançada
Parece piada, mas ninguém chegou nem perto de uma AGI de verdade
O próprio Altman reconheceu que, para alcançar AGI, serão necessários vários avanços intermediários
Ele previu que por volta de 2026 a IA passará de simplesmente recombinar informações existentes para gerar novos insights, e eu vejo isso como o limiar da AGI
Acho que os LLMs atuais são, em média, mais competentes que um humano médio