GPT-5.2 e GPT-5.2-Codex agora estão 40% mais rápidos
(twitter.com/OpenAIDevs)- A velocidade de processamento dos modelos GPT-5.2 e GPT-5.2-Codex teve uma melhoria de 40% em relação ao desempenho anterior
- Pilha de raciocínio otimizada para todos os usuários da API
- O mesmo modelo e os mesmos pesos, mas com menor latência
1 comentários
Comentários no Hacker News
No último mês, a OpenAI lançou vários recursos para usuários do Codex
Só os dois primeiros recursos já dão a sensação de que a produtividade triplicou. Estou realmente animado com esta atualização
No fim de semana, rodei o mesmo prompt em GPT-5.2, Gemini 3 e Grok
O Gemini 3 e o Grok terminaram em menos de 2 minutos no ‘thinking mode’, mas o GPT-5.2 ficou 6 minutos sem sair do lugar
Recentemente, disseram que roon percebeu que contas de funcionários eram muito mais rápidas do que as de usuários comuns
Então ele entendeu que a forma como as chamadas internas de API são feitas pode ser executada de modo mais eficiente do que para usuários comuns
No fim, os usuários comuns acabam sendo atendidos só com a capacidade que sobra
Texto relacionado: Choose Your Fighter (The Zvi)
Na minha opinião, a OpenAI tem o hábito de reduzir deliberadamente a qualidade depois de lançar um modelo
A versão web do ChatGPT 5.2 era muito melhor no começo, mas depois de 1 a 2 semanas a qualidade caiu de repente
Parecia uma estratégia para enganar a imprensa e os benchmarks
Para aumentar a velocidade, basta reduzir a intensidade da inferência, então é difícil acreditar nessa melhora de 40%
Pode até ser um ‘truque’ em que dão o modelo Pro no início para usuários do ChatGPT Plus e depois trocam pelo Standard
Mantemos a qualidade do modelo consistente e, se houver relatos de queda de desempenho, investigamos imediatamente
Este ganho de velocidade veio de melhorias no tempo de processamento por token, e a qualidade do modelo e os pesos permanecem os mesmos
Referência: Claude Code Tracker (MarginLab)
O interessante é que, mesmo com o custo de inferência muito mais alto na Cerebras, mantiveram o mesmo preço
Se fosse Cerebras, o comportamento do modelo teria mudado e a velocidade teria ficado algo como 10x mais rápida
Provavelmente escreveram um novo kernel otimizado para a série Blackwell
Velocidade sempre foi a minha maior reclamação, então esta melhoria me faz pensar em usar de novo
Fico curioso sobre como conseguiram esse ganho de velocidade
No Reddit também há muitos posts dizendo que a qualidade caiu
Nos subreddits sobre Claude acontece a mesma coisa, e quase nunca há evidências confiáveis