Para usar de verdade o contexto de 1M do GPT-5.4 no ChatGPT Pro, é preciso ajustar a configuração
(reddit.com)Recentemente, apareceu um post interessante no r/codex.
Um usuário publicou uma dúvida dizendo que estava usando GPT-5.4 no ChatGPT Pro + Codex, mas o contexto mostrava apenas 258K.
"Ouvi dizer que o GPT-5.4 tem contexto de 1M, então por que só aparece 258K?"
Na prática, ao verificar no Codex CLI ou na IDE, o contexto padrão pode aparecer como cerca de 258K.
A solução compartilhada nos comentários foi adicionar manualmente a configuração no config.
Exemplo:
model_context_window=800000
model_auto_compact_token_limit=700000
Ao adicionar isso ao config.toml, houve relatos de que é possível expandir e usar o contexto em torno de 800K.
Alguns pontos:
• É conhecido que o GPT-5.4 suporta até cerca de 1M de tokens de contexto
• Mas, no ambiente do Codex, em alguns casos a configuração padrão começa limitada a algo em torno de 258K
• Ao modificar os valores no config, passa a ser possível usar um contexto maior
Além disso, alguns usuários também comentaram que, se a configuração ficar muito próxima do limite máximo, pode haver queda de desempenho, então é melhor deixar uma margem.
⸻
O ponto que achei interessante pessoalmente
À medida que as ferramentas de IA ficam cada vez mais complexas,
parece que cada vez mais há casos em que
"especificação do modelo = configuração padrão real" não vale.
Especialmente em ambientes como agentic coding / Codex, parece haver muitos casos em que é preciso mexer diretamente nas configurações para extrair o desempenho de verdade.
Alguém aqui já usou long context (500K~1M) na prática no Codex ou no CLI?
Também tenho curiosidade de saber se a diferença é realmente perceptível no workflow de desenvolvimento.
7 comentários
Há um problema em que, ao usar
model_context_window=800000, a partir do ponto em que 50% do contexto é consumido, a resposta à pergunta passa a seguir a resposta da pergunta anterior. Fica a referência.Dizem que, se aumentar além desse valor, o preço por token dobra, então é melhor confirmar.
Eu usei, e o desempenho do próprio gpt-5.4 me agradou bastante, mas ele não é tão estável assim: às vezes gera respostas para uma mensagem anterior em vez da mensagem imediatamente anterior, e também há relatos de que, ao usar long context, o desempenho cai para menos de 50% em tarefas de needle in the haystack, então eu não gostaria exatamente de recomendá-lo. Mas não sei se a própria tarefa de needle in the haystack é um benchmark adequado para medir desempenho em long context. De todo modo, no Codex a compaction não demora muito e, mesmo depois do compact, ele também não costuma esquecer o contexto, então dava para usar sem grande incômodo.
Com um harness adequado, ainda assim parece não ser ruim. Como faz menos compaction em si, o problema de perda no meio também acaba diminuindo..
Eu nem sabia que o contexto de 1M era possível.
Confirmei que isso também se aplica da mesma forma ao app codex para macOS.
Ah... então era isso. Eu também achei que a janela de contexto estava pequena demais, mas aparentemente precisava configurar isso separadamente.