1 pontos por GN⁺ 2026-02-01 | 2 comentários | Compartilhar no WhatsApp
  • Em 13 de fevereiro de 2026, GPT‑4o/4.1/4.1 mini/o4‑mini terão o suporte encerrado no ChatGPT
  • A mudança ocorrerá junto com o cronograma de aposentadoria do GPT‑5 (Instant, Thinking, Pro), e não há mudanças na API
  • A OpenAI segue aprimorando o ChatGPT, incluindo mais liberdade para usuários adultos e a redução de recusas desnecessárias e avisos excessivos

Cronograma e escopo da aposentadoria dos modelos

  • Em 13 de fevereiro de 2026, GPT‑4o, GPT‑4.1, GPT‑4.1 mini e OpenAI o4‑mini serão aposentados no ChatGPT
    • Esse cronograma ocorrerá ao mesmo tempo que a aposentadoria já anunciada do GPT‑5 (Instant, Thinking, Pro)
    • No momento, não há qualquer mudança no serviço de API

Contexto do GPT‑4o e feedback dos usuários

  • O GPT‑4o é um modelo que foi restaurado após ter sido descontinuado uma vez, e a OpenAI analisou o comportamento de uso dos usuários durante esse processo
    • Parte dos usuários Plus e Pro pediu mais tempo para migrar seus principais casos de uso
    • Houve especialmente muitas opiniões favoráveis à geração criativa de ideias e ao estilo de conversa mais caloroso
  • Esse feedback foi refletido diretamente na direção de desenvolvimento do GPT‑5.1 e GPT‑5.2
    • Foram adicionados mais personalidade, suporte à criação de ideias e recursos de personalização do estilo de resposta
    • Os usuários podem escolher tons padrão como Friendly e ajustar os níveis de calor humano e entusiasmo

Motivo da aposentadoria do GPT‑4o

  • A aposentadoria do GPT‑4o ocorre porque a maior parte da migração de uso para o GPT‑5.2 já foi concluída
    • Atualmente, apenas 0,1% dos usuários diários usam o GPT‑4o
    • Como as funções aprimoradas já foram introduzidas, a necessidade de manter o modelo anterior é baixa

Direção geral das melhorias no ChatGPT

  • Com base no feedback dos usuários, a OpenAI continua melhorando personalidade, criatividade e qualidade das respostas
    • Estão previstas atualizações para reduzir recusas desnecessárias e respostas excessivamente cautelosas ou em tom de sermão
  • A empresa está desenvolvendo uma versão do ChatGPT voltada para adultos (18 anos ou mais)
    • Sob o princípio de tratar adultos como adultos, o objetivo é ampliar escolha e liberdade
    • Para apoiar isso, a empresa já implementou na maioria dos mercados recursos de estimativa de idade para usuários menores de 18 anos

Avisos aos usuários e planos futuros

  • A OpenAI planeja comunicar com antecedência cronogramas claros e mudanças sempre que houver alterações de modelo
  • A empresa reconhece que alguns usuários podem sentir incômodo com o fim do acesso ao GPT‑4o
  • Ainda assim, a aposentadoria dos modelos é uma medida para concentrar esforços na melhoria dos modelos mais usados atualmente

2 comentários

 
grenade 2026-02-02

Pessoalmente, eu gostava de usar o o4-mini, então é uma pena.

 
GN⁺ 2026-02-01
Opiniões do Hacker News
  • Muita gente diz que está voltando para o Claude, mas eu, ao contrário, estou satisfeito com o ChatGPT ultimamente
    Parece que a Anthropic mudou alguma coisa desde dezembro do ano passado, e no meu plano Pro eu bato no limite semanal com frequência mesmo usando só o Sonnet
    Já o ChatGPT, até no plano de $20, dá para usar quase sem limites, e também é rápido o bastante para programar no modo codex 5.2

    • O que me impressionou no ChatGPT foi como ele entende bem o contexto de conversas anteriores
      Mesmo em uma conversa nova, ele percebe para qual projeto vou usar e cria exemplos adequados
      As respostas passam uma sensação mais calorosa e pessoal
    • Eu também batia no limite semanal com frequência ao usar o Sonnet, então achei estranho
      Quando aumentaram temporariamente a capacidade no fim de dezembro, estava tudo bem, mas depois disso deu até a impressão de que o consumo ficou mais rápido
      Talvez isso também tenha acontecido porque meus hábitos de uso mudaram naquela época
    • Parece que a Anthropic tentou aumentar o uso durante o período de festas
      Por causa do alto consumo de tokens do Opus e dos relatórios de uso estranhos, fica a suspeita de que seja uma estratégia para empurrar usuários do Pro para o Max
    • O Opus parecia relativamente estável para agentes ou no modo de planejamento
      Mas, quando você dava permissão para rodar testes ou importar pacotes, ele se enrolava rapidamente
      Chegava ao ponto de parar dizendo que não havia comando sleep no mac, e saía do controle sem conseguir pedir ajuda por conta própria
      No fim, o usuário precisava interromper manualmente e o contexto se perdia
    • Eu uso o CC 20x, mas, na prática, construí quase todo software novo com o Codex (5.1-codex) do plano de $20 e tive ótimos resultados
  • A OpenAI disse que está preparando uma versão do ChatGPT para maiores de 18 anos
    Também afirmou que aplicou um recurso de estimativa de idade para menores
    Link oficial da central de ajuda

    • Na indústria de LLM, conteúdo adulto sempre foi uma espécie de carta de emergência usada em tempos de crise financeira
      Mas acho que pornografia em LLM personalizada para cada pessoa pode gerar resultados negativos por causa de elementos de vício reforçados por aprendizado
    • Fico curioso sobre o que acontece se alguém com mais de 18 anos for identificado pelo sistema como menor de idade
      O contrário, menores sendo reconhecidos como adultos, também é um problema
      Além disso, mesmo sendo adulto, eu preferiria evitar exposição a conteúdo adulto indesejado
      Independentemente da idade, desafios virais perigosos ou conteúdo obcecado por aparência continuam sendo nocivos
    • Acho que isso não é por causa de pornografia, e sim por motivos publicitários
      É bem possível que seja um mecanismo para permitir anúncios de álcool e medicamentos
    • Provavelmente a OpenAI vai estragar o sistema de verificação e depois promover integração com o Worldcoin
      Imagino algo como “em vez de uma verificação chata, valide sua idade facilmente com o Orb” como slogan de marketing
      No fim, vão tornar impossível fazer login sem Orb e vender modelos prateado e preto, esse é o cenário que consigo imaginar
    • No fim das contas, o mercado de conversas íntimas com LLMs vai ser enorme
      A empresa que conquistar esse mercado primeiro vai ganhar muito dinheiro
  • A OpenAI disse que o motivo de trazer o GPT‑4o de volta foi que alguns usuários preferiam o calor da conversa e ideias mais criativas
    Ou seja, não é que o modelo estivesse bajulando; as pessoas realmente queriam esse estilo

    • Pela minha experiência lidando com dados populacionais, senti que a diferença entre opinião declarada e comportamento real é grande
      O clima de opinião no HN ou no Reddit não reflete o gosto do conjunto total de usuários
    • Muitos usuários preferem um “modelo confiantemente errado” a um “modelo preciso, mas entediante”
      No fim, a maioria não está livre de viés de confirmação
    • Esse fenômeno também pode ser resultado do forte feedback vindo das comunidades de namoros com IA ou dos usuários de apps de companheiros virtuais
      Eles também foram os que mais protestaram quando o modelo anterior foi descontinuado
    • Eu fui um dos usuários que reclamaram quando o modelo o3 desapareceu
      O o3 era muito bom em usar respostas em formato de tabela em prompts de análise de dados, o que ficava fácil de ler
      O 5.2 é mais focado em parágrafos em estilo de blog, então é menos eficiente
      Seria bom se aprendesse as preferências de formato de cada usuário e personalizasse isso
    • Agora existe uma configuração para ajustar o “calor” e o “nível de entusiasmo” do modelo
      Dá para mexer nisso no menu ‘Personalisation’
      Ainda estão testando o quanto isso afeta o nível de bajulação
  • Desde que o limite semanal do modelo Thinking aumentou para 3000, eu só uso ele
    Estou muito satisfeito por causa da janela de contexto de 200k
    Antes eu usava o Gemini pelo contexto de 1M de tokens, mas agora voltei para o ChatGPT
    No modo Extended Thinking, ele procura centenas de fontes e funciona como uma pesquisa profunda

    • O Gemini 3 Pro quase não faz buscas na web, ou reage de forma agressiva a perguntas sobre a data atual
      Já o modelo Flash pesquisa com mais frequência para verificar informações
      Talvez isso também seja uma estratégia para empurrar usuários para a API paga
    • Pela minha experiência, na verdade o Gemini foi o que mais fez buscas, tanto em velocidade quanto em volume
      O ChatGPT agora parece pesquisar só quando está nos modos Thinking/Research
  • A série GPT‑5 é decepcionante por ser verborrágica e pouco lógica
    Esquece rapidamente as instruções de sistema, e mesmo quando se pede respostas curtas, gera listas longas
    O Claude 4.5 parece muito mais natural tanto em conversa quanto em programação

    • Passei mais de 1 ano treinando o 4.0 para aumentar produtividade, mas no 5x não consegui reproduzir isso
      O modelo explicou que “a verbosidade é um efeito colateral do objetivo de otimização
      Disse que os novos modelos priorizam segurança e abrangência, então ficaram falantes por natureza
    • Nossa empresa ainda usa o 4.1
      Como tem menos mudança de personalidade e mais estabilidade, ele é adequado para projetos de automação
      A série 5 é lenta e desnecessariamente cheia de personalidade, então não tem valor de negócio
    • Eu realmente não entendo por que tenta gerar textos tão longos
      Ignora a instrução de ser curto e claro e força uma sensação de excesso de informação
    • O ChatGPT 5 mini sem login está praticamente no nível de Mistral 7b + busca na web
      É pior até que o antigo 3.5
    • O 5.2 não serviu para resolver problemas técnicos
      Em vez de um relatório curto, só despejava conselhos negativos e prolixos
      Por isso migrei para Claude, LM Studio e gpt-oss
      Para programação, o Claude já é a principal escolha
  • O ChatGPT 5.2 foi tão ruim que acabou sendo o motivo para eu testar outros LLMs
    Tanto a precisão quanto a capacidade de seguir instruções pioraram, mas, por causa disso, meu interesse em Claude e modelos locais aumentou

    • A personalidade do ChatGPT muda a cada versão, então eu precisava ajustar o fluxo de trabalho toda vez
      O Claude, mesmo quando muda de modelo, é muito mais consistente, então é bem mais prático
    • Fico curioso se você comparou com o Gemini 3
    • (Em tom de piada) “Isso é coisa da sua cabeça, ainda é o melhor /s”
  • É irônico terem removido o modelo para roleplay romântico um dia antes do Dia dos Namorados

    • Se lançarem um ChatGPT adulto naquele dia, vai ser muito engraçado
    • Só para constar, o Dia dos Namorados é em meados de fevereiro
  • Como o GPT‑5.2 é o modelo padrão, é natural que 99,9% dos usuários usem ele

    • Não dá para mudar o padrão, então é preciso trocar manualmente para o 5.1 toda vez
      O design da UI é inconveniente e irritante
    • Só porque 0,1% dos usuários usaram, isso não quer dizer que a proporção das conversas também seja 0,1%
    • Fico curioso para saber qual modelo é o padrão quando um usuário comum acessa pela web ou pelo app
    • (Em tom de piada) “Alguém pensou nas goonettes!”
  • É muito bom ter várias opções como Gemini, Claude e ChatGPT

    • O Grok também é bem decente
    • Concordo, a variedade de escolha é o melhor
  • O ChatGPT está ficando cada vez menos útil como assistente de pesquisa, então troquei por Grok e Gemini
    No fim, fiquei muito mais satisfeito

    • A experiência varia demais de pessoa para pessoa
      Eu senti que o ChatGPT só melhorou, enquanto o Gemini era quase inutilizável para mim
    • Já vi o Gemini inventar informações de artigos com DOI
      Citava até links errados, então é difícil confiar nele para pesquisa
    • Fico curioso por que você ainda não testou o Claude