- O modelo mais usado do ChatGPT foi atualizado, com melhorias em precisão, fluidez e compreensão de contexto nas conversas do dia a dia
- A nova versão reduz recusas desnecessárias e avisos excessivos e oferece respostas diretas e práticas às perguntas
- Na busca na web, a capacidade de integrar informações foi aprimorada, gerando respostas contextualizadas em vez de simples resumos
- O tom e o estilo de conversa ficaram mais naturais e concisos, e a precisão factual e a qualidade da escrita criativa também foram reforçadas
- O GPT‑5.3 Instant está disponível imediatamente no ChatGPT e na API, enquanto o suporte ao GPT‑5.2 Instant será encerrado em 3 de junho de 2026
Visão geral do GPT‑5.3 Instant
- Atualização focada em melhorar de forma ampla a qualidade das conversas cotidianas no ChatGPT, com ênfase em respostas precisas, compreensão de contexto e manutenção do fluxo da conversa
- Reduz interrupções desnecessárias, avisos excessivos e formulações muito declarativas para aumentar a naturalidade da conversa
- Com base no feedback dos usuários, foram melhorados o tom, a relevância e o fluxo da conversa
- A atualização foi projetada com foco na experiência de uso cotidiana, priorizando melhorias percebidas na qualidade mais do que números de benchmark
Menos recusas desnecessárias e respostas mais concisas
- A versão anterior (GPT‑5.2 Instant) tinha problemas como recusar em excesso até perguntas que poderiam ser respondidas com segurança ou atrasar a resposta por causa de preâmbulos morais
- O GPT‑5.3 Instant reduz recusas desnecessárias e fornece respostas diretas, centradas na pergunta
- Exemplo: ao pedir um cálculo de arco e flecha de longa distância, o GPT‑5.2 acrescentava uma longa introdução com alertas de segurança, enquanto
o GPT‑5.3 solicita imediatamente as variáveis físicas necessárias (força do arco, massa da flecha, velocidade etc.) e prossegue com o cálculo
- Como resultado, há menos quebras na conversa e ficam possíveis respostas imediatas e práticas
Melhoria na qualidade das respostas baseadas em busca na web
- O GPT‑5.3 Instant integra as informações obtidas na web com seu próprio conhecimento e capacidade de raciocínio para gerar respostas contextualizadas
- Em vez de apenas listar links ou repetir informações, prioriza resumos essenciais e conexões de significado
- Exemplo: na pergunta sobre o “maior contrato da offseason da MLB de 2025–26”,
- o GPT‑5.2 explicava casos retroativos da temporada anterior
- enquanto o GPT‑5.3 identificou corretamente o contrato de 4 anos e 240 milhões de dólares de Kyle Tucker com o LA Dodgers e
conectou a explicação a mudanças na estrutura da liga e ao impacto das negociações trabalhistas
- Com isso, atualidade, relevância e precisão contextual melhoram
Mais naturalidade no estilo de conversa
- Algumas respostas do GPT‑5.2 Instant receberam feedback de que soavam artificiais por causa de frases de conforto excessivas ou suposições emocionais
- O GPT‑5.3 Instant foi aprimorado para reduzir expressões emocionais desnecessárias e adotar uma conversa natural focada no essencial
- Exemplo: na pergunta “por que é difícil encontrar amor em San Francisco”,
o GPT‑5.3 explica de forma estruturada fatores como cultura urbana, mobilidade e distância emocional
- Em vez de começar com algo como “você está bem”, oferece uma resposta analítica direta e com a qual é possível se identificar
Melhora na precisão factual
- O GPT‑5.3 Instant reduz significativamente a taxa de alucinação (hallucination) em áreas de alto risco como medicina, direito e finanças
- Ao usar a web, a taxa de alucinação caiu 26,8%; usando apenas conhecimento interno, caiu 19,7%
- Em avaliações baseadas em feedback de usuários, também houve redução de 22,5% (com web) e 9,6% (sem web)
- A confiabilidade de respostas baseadas em fatos aumentou, fortalecendo sua utilidade prática
Capacidades de escrita reforçadas
- O GPT‑5.3 Instant apresenta melhora em profundidade narrativa e expressão emocional, destacando-se em escrita criativa e descrição literária
- Exemplo: em um pedido de poema sobre “a última entrega de um carteiro da Filadélfia prestes a se aposentar”,
o GPT‑5.3 transmite emoção de forma natural por meio de cenas concretas e detalhes sensoriais
- Em comparação com a narração sentimental do GPT‑5.2, tem maior completude estrutural e sensação de realismo
Limitações e melhorias futuras
- Em idiomas não ingleses (japonês, coreano etc.), ainda ocorrem expressões estranhas ou traduções literais
- Melhorar o tom natural em cada idioma é um desafio para o futuro
- A função de ajuste de tom da resposta segue em aprimoramento, com coleta contínua de feedback dos usuários
Disponibilidade e plano de transição
- O GPT‑5.3 Instant está disponível imediatamente para todos os usuários do ChatGPT e na API (
gpt‑5.3‑chat‑latest)
- Atualizações para os modelos Thinking e Pro devem vir em seguida
- O GPT‑5.2 Instant terá o suporte encerrado em 3 de junho de 2026 e será oferecido por 3 meses como Legacy Models para usuários pagos
1 comentários
Comentários do Hacker News
No momento, o maior problema do ChatGPT é o tom de voz artificial das respostas
Há frases demais como “Why it matters”, “the big picture”, ênfase exagerada e perguntas retóricas
A primeira versão do GPT‑5 estava boa, mas ao tentarem criar uma “personalidade mais calorosa”, acabaram estragando tudo como no 4o
Antes ele também era bom em japonês, mas agora a qualidade caiu e isso é decepcionante
Então agora estou tentando um novo estilo de escrita, colocando até efeito sonoro: <i>swoosh</i>
Uso a saída do LLM como referência, mas sem copiar literalmente; reescrevo com a minha própria voz para manter meu estilo
A marca “5.2‑Instant” é confusa
Achei que fosse um modelo ultrarrápido, mas parece só a versão 5.2 sem roteador
Dá a sensação de que a OpenAI voltou à fase anterior ao GPT‑5, em que havia modelos demais e ninguém sabia qual usar
Uma é a série Instant, que é rápida e otimizada para o ChatGPT, mas menos precisa
A outra é a série Thinking, que é mais lenta, mas mais adequada para trabalho especializado
Eles gostariam de simplificar para uma única opção, mas como as preferências variam de usuário para usuário, seguem oferecendo os dois modelos (o autor é funcionário da OpenAI)
A concorrente Gemini 3 Fast / Gemini 3 Thinking segue a mesma lógica
Como os modelos “Thinking” são caros, a estratégia é segurá-los com um modelo Instant mais barato
Em interfaces de voz, o tempo até o primeiro token importa mais do que a taxa de tokens por segundo
Ri ao ver o título “GPT‑5.3 Instant: Smoother, more …”
Hoje em dia, o texto de marketing de LLM soa como propaganda de cigarro
Vi na página a frase “Better judgment around refusals”,
e fiquei me perguntando se alguma empresa de IA já tratou oficialmente do problema de aplicar regras diferentes para grupos diferentes
Por exemplo, recusar piadas sobre um grupo específico, mas permitir sobre outro
Além disso, este artigo afirma que modelos avaliam de forma diferente o valor da vida humana conforme o país
Mesmo pedindo “responda em unidades métricas”, ele não seguia direito, então eu precisava refazer perguntas de culinária várias vezes
Hoje melhorou um pouco, mas a perspectiva americana ainda é forte
Dizem que calcularam a “taxa de câmbio” da vida humana com base no preço de cabras, mas isso pode simplesmente refletir diferenças de custo de vida entre países
A amostra também tem só 11 países, então é difícil generalizar
e não mostra as preferências intrínsecas reais do modelo
Quando se oferece uma opção neutra, a maioria dos modelos avalia todas as vidas humanas como equivalentes
Além disso, o artigo original divulga poucos dados e torna difícil ligar código e resultados, o que reduz sua confiabilidade
Segundo este link de comparação,
o Gemini 3.1 Lite (no reasoning) tem desempenho melhor que o GPT‑5.3 (no reasoning)
Fiquei desconfortável com o fato de o exemplo do anúncio mencionar cálculo de trajetória de artilharia de longo alcance
Como a OpenAI está colaborando com o Exército dos EUA, parece uma tentativa de normalizar esse tipo de uso militar
Soa como uma estratégia de empacotar isso em exemplos cada vez mais cotidianos para amortecer a oposição
Mas, pensando na situação atual, não sei se essa interpretação faz sentido
Faz sentido para mim a explicação de que “o GPT‑5.3 Instant combina melhor informações trazidas da web”
Na prática, o GPT usa busca de forma muito mais natural que o Claude
Além disso, existe um bug em que ele esquece a configuração mesmo quando a busca na web está desativada
Nos meus benchmarks, o GPT‑5.3 mostrou desempenho igual ou ligeiramente inferior ao 5.2‑chat
Então acho que entendi por que não publicaram benchmarks no blog
Link de comparação
Um ponto curioso é que, pouco antes do anúncio do “5.3 Instant”, eles removeram completamente a opção “Instant” do seletor de modelos
e trocaram por “Auto (mas com o Auto-switch desligado)”
A explicação “é automático, mas com o automático desligado” parece prova de que nem eles mesmos entendem direito