2 pontos por GN⁺ 2026-03-04 | 1 comentários | Compartilhar no WhatsApp
  • O modelo mais usado do ChatGPT foi atualizado, com melhorias em precisão, fluidez e compreensão de contexto nas conversas do dia a dia
  • A nova versão reduz recusas desnecessárias e avisos excessivos e oferece respostas diretas e práticas às perguntas
  • Na busca na web, a capacidade de integrar informações foi aprimorada, gerando respostas contextualizadas em vez de simples resumos
  • O tom e o estilo de conversa ficaram mais naturais e concisos, e a precisão factual e a qualidade da escrita criativa também foram reforçadas
  • O GPT‑5.3 Instant está disponível imediatamente no ChatGPT e na API, enquanto o suporte ao GPT‑5.2 Instant será encerrado em 3 de junho de 2026

Visão geral do GPT‑5.3 Instant

  • Atualização focada em melhorar de forma ampla a qualidade das conversas cotidianas no ChatGPT, com ênfase em respostas precisas, compreensão de contexto e manutenção do fluxo da conversa
    • Reduz interrupções desnecessárias, avisos excessivos e formulações muito declarativas para aumentar a naturalidade da conversa
  • Com base no feedback dos usuários, foram melhorados o tom, a relevância e o fluxo da conversa
  • A atualização foi projetada com foco na experiência de uso cotidiana, priorizando melhorias percebidas na qualidade mais do que números de benchmark

Menos recusas desnecessárias e respostas mais concisas

  • A versão anterior (GPT‑5.2 Instant) tinha problemas como recusar em excesso até perguntas que poderiam ser respondidas com segurança ou atrasar a resposta por causa de preâmbulos morais
  • O GPT‑5.3 Instant reduz recusas desnecessárias e fornece respostas diretas, centradas na pergunta
    • Exemplo: ao pedir um cálculo de arco e flecha de longa distância, o GPT‑5.2 acrescentava uma longa introdução com alertas de segurança, enquanto
      o GPT‑5.3 solicita imediatamente as variáveis físicas necessárias (força do arco, massa da flecha, velocidade etc.) e prossegue com o cálculo
  • Como resultado, há menos quebras na conversa e ficam possíveis respostas imediatas e práticas

Melhoria na qualidade das respostas baseadas em busca na web

  • O GPT‑5.3 Instant integra as informações obtidas na web com seu próprio conhecimento e capacidade de raciocínio para gerar respostas contextualizadas
    • Em vez de apenas listar links ou repetir informações, prioriza resumos essenciais e conexões de significado
  • Exemplo: na pergunta sobre o “maior contrato da offseason da MLB de 2025–26”,
    • o GPT‑5.2 explicava casos retroativos da temporada anterior
    • enquanto o GPT‑5.3 identificou corretamente o contrato de 4 anos e 240 milhões de dólares de Kyle Tucker com o LA Dodgers e
      conectou a explicação a mudanças na estrutura da liga e ao impacto das negociações trabalhistas
  • Com isso, atualidade, relevância e precisão contextual melhoram

Mais naturalidade no estilo de conversa

  • Algumas respostas do GPT‑5.2 Instant receberam feedback de que soavam artificiais por causa de frases de conforto excessivas ou suposições emocionais
  • O GPT‑5.3 Instant foi aprimorado para reduzir expressões emocionais desnecessárias e adotar uma conversa natural focada no essencial
    • Exemplo: na pergunta “por que é difícil encontrar amor em San Francisco”,
      o GPT‑5.3 explica de forma estruturada fatores como cultura urbana, mobilidade e distância emocional
    • Em vez de começar com algo como “você está bem”, oferece uma resposta analítica direta e com a qual é possível se identificar

Melhora na precisão factual

  • O GPT‑5.3 Instant reduz significativamente a taxa de alucinação (hallucination) em áreas de alto risco como medicina, direito e finanças
    • Ao usar a web, a taxa de alucinação caiu 26,8%; usando apenas conhecimento interno, caiu 19,7%
    • Em avaliações baseadas em feedback de usuários, também houve redução de 22,5% (com web) e 9,6% (sem web)
  • A confiabilidade de respostas baseadas em fatos aumentou, fortalecendo sua utilidade prática

Capacidades de escrita reforçadas

  • O GPT‑5.3 Instant apresenta melhora em profundidade narrativa e expressão emocional, destacando-se em escrita criativa e descrição literária
    • Exemplo: em um pedido de poema sobre “a última entrega de um carteiro da Filadélfia prestes a se aposentar”,
      o GPT‑5.3 transmite emoção de forma natural por meio de cenas concretas e detalhes sensoriais
    • Em comparação com a narração sentimental do GPT‑5.2, tem maior completude estrutural e sensação de realismo

Limitações e melhorias futuras

  • Em idiomas não ingleses (japonês, coreano etc.), ainda ocorrem expressões estranhas ou traduções literais
    • Melhorar o tom natural em cada idioma é um desafio para o futuro
  • A função de ajuste de tom da resposta segue em aprimoramento, com coleta contínua de feedback dos usuários

Disponibilidade e plano de transição

  • O GPT‑5.3 Instant está disponível imediatamente para todos os usuários do ChatGPT e na API (gpt‑5.3‑chat‑latest)
  • Atualizações para os modelos Thinking e Pro devem vir em seguida
  • O GPT‑5.2 Instant terá o suporte encerrado em 3 de junho de 2026 e será oferecido por 3 meses como Legacy Models para usuários pagos

1 comentários

 
GN⁺ 2026-03-04
Comentários do Hacker News
  • No momento, o maior problema do ChatGPT é o tom de voz artificial das respostas
    Há frases demais como “Why it matters”, “the big picture”, ênfase exagerada e perguntas retóricas
    A primeira versão do GPT‑5 estava boa, mas ao tentarem criar uma “personalidade mais calorosa”, acabaram estragando tudo como no 4o
    Antes ele também era bom em japonês, mas agora a qualidade caiu e isso é decepcionante

    • Eu também costumava escrever textos do tipo “Why X works, but Y doesn’t”, mas agora isso faz eu parecer uma pessoa imitando um LLM, o que é ainda mais constrangedor
      Então agora estou tentando um novo estilo de escrita, colocando até efeito sonoro: <i>swoosh</i>
    • Esse estilo repetitivo também me incomoda, mas hoje em dia eu vou além disso e leio só extraindo o conteúdo
      Uso a saída do LLM como referência, mas sem copiar literalmente; reescrevo com a minha própria voz para manter meu estilo
    • Talvez em breve lancem uma “versão premium sem arrogância”. Se isso acontecer, bastante gente provavelmente vai migrar
  • A marca “5.2‑Instant” é confusa
    Achei que fosse um modelo ultrarrápido, mas parece só a versão 5.2 sem roteador
    Dá a sensação de que a OpenAI voltou à fase anterior ao GPT‑5, em que havia modelos demais e ninguém sabia qual usar

    • O ChatGPT Plus na prática usa duas famílias de modelos
      Uma é a série Instant, que é rápida e otimizada para o ChatGPT, mas menos precisa
      A outra é a série Thinking, que é mais lenta, mas mais adequada para trabalho especializado
      Eles gostariam de simplificar para uma única opção, mas como as preferências variam de usuário para usuário, seguem oferecendo os dois modelos (o autor é funcionário da OpenAI)
    • As pessoas gostam de ter escolha, então diferenciar como “5.2 Instant / 5.2 Thinking” em vez de só “5.2” é mais claro
      A concorrente Gemini 3 Fast / Gemini 3 Thinking segue a mesma lógica
    • Ainda há algo como 800 mil pessoas por dia usando gpt‑4o, então também existe o objetivo de manter essa base
      Como os modelos “Thinking” são caros, a estratégia é segurá-los com um modelo Instant mais barato
    • Ainda é preciso ver benchmarks reais, mas pela explicação da OpenAI, Instant é um modelo otimizado para latência
      Em interfaces de voz, o tempo até o primeiro token importa mais do que a taxa de tokens por segundo
  • Ri ao ver o título “GPT‑5.3 Instant: Smoother, more …”
    Hoje em dia, o texto de marketing de LLM soa como propaganda de cigarro

    • “GPT‑5.3 Instant: It’s toasted…”
    • “LLMenthols”
    • “GPT Super Mild”
    • “GPT Crush”
  • Vi na página a frase “Better judgment around refusals”,
    e fiquei me perguntando se alguma empresa de IA já tratou oficialmente do problema de aplicar regras diferentes para grupos diferentes
    Por exemplo, recusar piadas sobre um grupo específico, mas permitir sobre outro
    Além disso, este artigo afirma que modelos avaliam de forma diferente o valor da vida humana conforme o país

    • Isso não pode ser apenas um reflexo de normas sociais?
    • Para mim, o maior problema era o viés centrado nos EUA
      Mesmo pedindo “responda em unidades métricas”, ele não seguia direito, então eu precisava refazer perguntas de culinária várias vezes
      Hoje melhorou um pouco, mas a perspectiva americana ainda é forte
    • A crítica sobre viés em modelos é válida, mas esse artigo parece ter uma metodologia fraca
      Dizem que calcularam a “taxa de câmbio” da vida humana com base no preço de cabras, mas isso pode simplesmente refletir diferenças de custo de vida entre países
      A amostra também tem só 11 países, então é difícil generalizar
    • Um artigo da ACM aponta que esse tipo de experimento de “taxa de câmbio” é apenas produto do desenho da avaliação
      e não mostra as preferências intrínsecas reais do modelo
      Quando se oferece uma opção neutra, a maioria dos modelos avalia todas as vidas humanas como equivalentes
      Além disso, o artigo original divulga poucos dados e torna difícil ligar código e resultados, o que reduz sua confiabilidade
  • Segundo este link de comparação,
    o Gemini 3.1 Lite (no reasoning) tem desempenho melhor que o GPT‑5.3 (no reasoning)

    • E o custo também é muito menor: GPT‑5.3 fica em $0.256, enquanto o Gemini está na faixa de $0.011
  • Fiquei desconfortável com o fato de o exemplo do anúncio mencionar cálculo de trajetória de artilharia de longo alcance

    • É desconfortável, mas não chega a ser estranho
      Como a OpenAI está colaborando com o Exército dos EUA, parece uma tentativa de normalizar esse tipo de uso militar
      Soa como uma estratégia de empacotar isso em exemplos cada vez mais cotidianos para amortecer a oposição
    • Eu vi esse exemplo como uma homenagem à época em que os primeiros computadores eram usados para cálculos balísticos
      Mas, pensando na situação atual, não sei se essa interpretação faz sentido
    • Também pode ser apenas um exemplo típico de livro didático de física do ensino médio
    • Considerando os acontecimentos recentes, esse tipo de exemplo parece um deslize insensível
    • Também houve quem reagisse em tom de piada: “Teve algum acidente de arco e flecha recentemente?”
  • Faz sentido para mim a explicação de que “o GPT‑5.3 Instant combina melhor informações trazidas da web”
    Na prática, o GPT usa busca de forma muito mais natural que o Claude

    • Já eu sinto o contrário: o Claude faz busca com frequência demais
      Além disso, existe um bug em que ele esquece a configuração mesmo quando a busca na web está desativada
  • Nos meus benchmarks, o GPT‑5.3 mostrou desempenho igual ou ligeiramente inferior ao 5.2‑chat
    Então acho que entendi por que não publicaram benchmarks no blog
    Link de comparação

  • Um ponto curioso é que, pouco antes do anúncio do “5.3 Instant”, eles removeram completamente a opção “Instant” do seletor de modelos
    e trocaram por “Auto (mas com o Auto-switch desligado)”
    A explicação “é automático, mas com o automático desligado” parece prova de que nem eles mesmos entendem direito