4 pontos por GN⁺ 2026-02-05 | 1 comentários | Compartilhar no WhatsApp
  • A velocidade de processamento dos modelos GPT-5.2 e GPT-5.2-Codex teve uma melhoria de 40% em relação ao desempenho anterior
  • Pilha de raciocínio otimizada para todos os usuários da API
  • O mesmo modelo e os mesmos pesos, mas com menor latência

1 comentários

 
GN⁺ 2026-02-05
Comentários no Hacker News
  • No último mês, a OpenAI lançou vários recursos para usuários do Codex

    • suporte a subagents
    • interface multi-agent aprimorada (app do Codex)
    • velocidade de inferência 40% mais rápida
      Só os dois primeiros recursos já dão a sensação de que a produtividade triplicou. Estou realmente animado com esta atualização
    • Fico curioso para saber como os subagents funcionam
    • Este é um recurso exclusivo da API
    • Se você usar o Claude, o desempenho melhora em nível x². A OpenAI provavelmente também deve estar sentindo a pressão
  • No fim de semana, rodei o mesmo prompt em GPT-5.2, Gemini 3 e Grok
    O Gemini 3 e o Grok terminaram em menos de 2 minutos no ‘thinking mode’, mas o GPT-5.2 ficou 6 minutos sem sair do lugar

  • Recentemente, disseram que roon percebeu que contas de funcionários eram muito mais rápidas do que as de usuários comuns
    Então ele entendeu que a forma como as chamadas internas de API são feitas pode ser executada de modo mais eficiente do que para usuários comuns
    No fim, os usuários comuns acabam sendo atendidos só com a capacidade que sobra
    Texto relacionado: Choose Your Fighter (The Zvi)

  • Na minha opinião, a OpenAI tem o hábito de reduzir deliberadamente a qualidade depois de lançar um modelo
    A versão web do ChatGPT 5.2 era muito melhor no começo, mas depois de 1 a 2 semanas a qualidade caiu de repente
    Parecia uma estratégia para enganar a imprensa e os benchmarks
    Para aumentar a velocidade, basta reduzir a intensidade da inferência, então é difícil acreditar nessa melhora de 40%
    Pode até ser um ‘truque’ em que dão o modelo Pro no início para usuários do ChatGPT Plus e depois trocam pelo Standard

    • Entendo o ceticismo, mas nós não fazemos esse tipo de truque
      Mantemos a qualidade do modelo consistente e, se houver relatos de queda de desempenho, investigamos imediatamente
      Este ganho de velocidade veio de melhorias no tempo de processamento por token, e a qualidade do modelo e os pesos permanecem os mesmos
    • Não é só a OpenAI. A Anthropic também tem casos parecidos
      Referência: Claude Code Tracker (MarginLab)
    • Seria bom criar um site de benchmarks diários para o Codex
    • É só rodar os benchmarks novamente você mesmo
  • O interessante é que, mesmo com o custo de inferência muito mais alto na Cerebras, mantiveram o mesmo preço

    • Mas provavelmente isso não é Cerebras.
      Se fosse Cerebras, o comportamento do modelo teria mudado e a velocidade teria ficado algo como 10x mais rápida
      Provavelmente escreveram um novo kernel otimizado para a série Blackwell
    • É quase certo que não está rodando na Cerebras
  • Velocidade sempre foi a minha maior reclamação, então esta melhoria me faz pensar em usar de novo

  • Fico curioso sobre como conseguiram esse ganho de velocidade

  • No Reddit também há muitos posts dizendo que a qualidade caiu

    • Mas no Reddit aparecem posts assim todos os dias.
      Nos subreddits sobre Claude acontece a mesma coisa, e quase nunca há evidências confiáveis