- Em 13 de fevereiro de 2026, GPT‑4o/4.1/4.1 mini/o4‑mini terão o suporte encerrado no ChatGPT
- A mudança ocorrerá junto com o cronograma de aposentadoria do GPT‑5 (Instant, Thinking, Pro), e não há mudanças na API
- A OpenAI segue aprimorando o ChatGPT, incluindo mais liberdade para usuários adultos e a redução de recusas desnecessárias e avisos excessivos
Cronograma e escopo da aposentadoria dos modelos
- Em 13 de fevereiro de 2026, GPT‑4o, GPT‑4.1, GPT‑4.1 mini e OpenAI o4‑mini serão aposentados no ChatGPT
- Esse cronograma ocorrerá ao mesmo tempo que a aposentadoria já anunciada do GPT‑5 (Instant, Thinking, Pro)
- No momento, não há qualquer mudança no serviço de API
Contexto do GPT‑4o e feedback dos usuários
- O GPT‑4o é um modelo que foi restaurado após ter sido descontinuado uma vez, e a OpenAI analisou o comportamento de uso dos usuários durante esse processo
- Parte dos usuários Plus e Pro pediu mais tempo para migrar seus principais casos de uso
- Houve especialmente muitas opiniões favoráveis à geração criativa de ideias e ao estilo de conversa mais caloroso
- Esse feedback foi refletido diretamente na direção de desenvolvimento do GPT‑5.1 e GPT‑5.2
- Foram adicionados mais personalidade, suporte à criação de ideias e recursos de personalização do estilo de resposta
- Os usuários podem escolher tons padrão como Friendly e ajustar os níveis de calor humano e entusiasmo
Motivo da aposentadoria do GPT‑4o
- A aposentadoria do GPT‑4o ocorre porque a maior parte da migração de uso para o GPT‑5.2 já foi concluída
- Atualmente, apenas 0,1% dos usuários diários usam o GPT‑4o
- Como as funções aprimoradas já foram introduzidas, a necessidade de manter o modelo anterior é baixa
Direção geral das melhorias no ChatGPT
- Com base no feedback dos usuários, a OpenAI continua melhorando personalidade, criatividade e qualidade das respostas
- Estão previstas atualizações para reduzir recusas desnecessárias e respostas excessivamente cautelosas ou em tom de sermão
- A empresa está desenvolvendo uma versão do ChatGPT voltada para adultos (18 anos ou mais)
- Sob o princípio de tratar adultos como adultos, o objetivo é ampliar escolha e liberdade
- Para apoiar isso, a empresa já implementou na maioria dos mercados recursos de estimativa de idade para usuários menores de 18 anos
Avisos aos usuários e planos futuros
- A OpenAI planeja comunicar com antecedência cronogramas claros e mudanças sempre que houver alterações de modelo
- A empresa reconhece que alguns usuários podem sentir incômodo com o fim do acesso ao GPT‑4o
- Ainda assim, a aposentadoria dos modelos é uma medida para concentrar esforços na melhoria dos modelos mais usados atualmente
2 comentários
Pessoalmente, eu gostava de usar o o4-mini, então é uma pena.
Opiniões do Hacker News
Muita gente diz que está voltando para o Claude, mas eu, ao contrário, estou satisfeito com o ChatGPT ultimamente
Parece que a Anthropic mudou alguma coisa desde dezembro do ano passado, e no meu plano Pro eu bato no limite semanal com frequência mesmo usando só o Sonnet
Já o ChatGPT, até no plano de $20, dá para usar quase sem limites, e também é rápido o bastante para programar no modo codex 5.2
Mesmo em uma conversa nova, ele percebe para qual projeto vou usar e cria exemplos adequados
As respostas passam uma sensação mais calorosa e pessoal
Quando aumentaram temporariamente a capacidade no fim de dezembro, estava tudo bem, mas depois disso deu até a impressão de que o consumo ficou mais rápido
Talvez isso também tenha acontecido porque meus hábitos de uso mudaram naquela época
Por causa do alto consumo de tokens do Opus e dos relatórios de uso estranhos, fica a suspeita de que seja uma estratégia para empurrar usuários do Pro para o Max
Mas, quando você dava permissão para rodar testes ou importar pacotes, ele se enrolava rapidamente
Chegava ao ponto de parar dizendo que não havia comando sleep no mac, e saía do controle sem conseguir pedir ajuda por conta própria
No fim, o usuário precisava interromper manualmente e o contexto se perdia
A OpenAI disse que está preparando uma versão do ChatGPT para maiores de 18 anos
Também afirmou que aplicou um recurso de estimativa de idade para menores
Link oficial da central de ajuda
Mas acho que pornografia em LLM personalizada para cada pessoa pode gerar resultados negativos por causa de elementos de vício reforçados por aprendizado
O contrário, menores sendo reconhecidos como adultos, também é um problema
Além disso, mesmo sendo adulto, eu preferiria evitar exposição a conteúdo adulto indesejado
Independentemente da idade, desafios virais perigosos ou conteúdo obcecado por aparência continuam sendo nocivos
É bem possível que seja um mecanismo para permitir anúncios de álcool e medicamentos
Imagino algo como “em vez de uma verificação chata, valide sua idade facilmente com o Orb” como slogan de marketing
No fim, vão tornar impossível fazer login sem Orb e vender modelos prateado e preto, esse é o cenário que consigo imaginar
A empresa que conquistar esse mercado primeiro vai ganhar muito dinheiro
A OpenAI disse que o motivo de trazer o GPT‑4o de volta foi que alguns usuários preferiam o calor da conversa e ideias mais criativas
Ou seja, não é que o modelo estivesse bajulando; as pessoas realmente queriam esse estilo
O clima de opinião no HN ou no Reddit não reflete o gosto do conjunto total de usuários
No fim, a maioria não está livre de viés de confirmação
Eles também foram os que mais protestaram quando o modelo anterior foi descontinuado
O o3 era muito bom em usar respostas em formato de tabela em prompts de análise de dados, o que ficava fácil de ler
O 5.2 é mais focado em parágrafos em estilo de blog, então é menos eficiente
Seria bom se aprendesse as preferências de formato de cada usuário e personalizasse isso
Dá para mexer nisso no menu ‘Personalisation’
Ainda estão testando o quanto isso afeta o nível de bajulação
Desde que o limite semanal do modelo Thinking aumentou para 3000, eu só uso ele
Estou muito satisfeito por causa da janela de contexto de 200k
Antes eu usava o Gemini pelo contexto de 1M de tokens, mas agora voltei para o ChatGPT
No modo Extended Thinking, ele procura centenas de fontes e funciona como uma pesquisa profunda
Já o modelo Flash pesquisa com mais frequência para verificar informações
Talvez isso também seja uma estratégia para empurrar usuários para a API paga
O ChatGPT agora parece pesquisar só quando está nos modos Thinking/Research
A série GPT‑5 é decepcionante por ser verborrágica e pouco lógica
Esquece rapidamente as instruções de sistema, e mesmo quando se pede respostas curtas, gera listas longas
O Claude 4.5 parece muito mais natural tanto em conversa quanto em programação
O modelo explicou que “a verbosidade é um efeito colateral do objetivo de otimização”
Disse que os novos modelos priorizam segurança e abrangência, então ficaram falantes por natureza
Como tem menos mudança de personalidade e mais estabilidade, ele é adequado para projetos de automação
A série 5 é lenta e desnecessariamente cheia de personalidade, então não tem valor de negócio
Ignora a instrução de ser curto e claro e força uma sensação de excesso de informação
É pior até que o antigo 3.5
Em vez de um relatório curto, só despejava conselhos negativos e prolixos
Por isso migrei para Claude, LM Studio e gpt-oss
Para programação, o Claude já é a principal escolha
O ChatGPT 5.2 foi tão ruim que acabou sendo o motivo para eu testar outros LLMs
Tanto a precisão quanto a capacidade de seguir instruções pioraram, mas, por causa disso, meu interesse em Claude e modelos locais aumentou
O Claude, mesmo quando muda de modelo, é muito mais consistente, então é bem mais prático
É irônico terem removido o modelo para roleplay romântico um dia antes do Dia dos Namorados
Como o GPT‑5.2 é o modelo padrão, é natural que 99,9% dos usuários usem ele
O design da UI é inconveniente e irritante
É muito bom ter várias opções como Gemini, Claude e ChatGPT
O ChatGPT está ficando cada vez menos útil como assistente de pesquisa, então troquei por Grok e Gemini
No fim, fiquei muito mais satisfeito
Eu senti que o ChatGPT só melhorou, enquanto o Gemini era quase inutilizável para mim
Citava até links errados, então é difícil confiar nele para pesquisa