GPT‑5.5 Instant
(openai.com)- O modelo padrão do ChatGPT, Instant, foi atualizado de GPT‑5.3 Instant para GPT‑5.5 Instant e será disponibilizado gradualmente para todos os usuários, com o objetivo de oferecer respostas mais precisas, concisas e personalizadas
- Em avaliações internas da OpenAI, o GPT‑5.5 Instant reduziu em 52,5% as afirmações alucinatórias em prompts de alto risco, como medicina, direito e finanças, em comparação com o GPT‑5.3 Instant, além de diminuir em 37,3% as afirmações imprecisas em conversas difíceis sinalizadas pelos usuários como contendo erros factuais
- Houve melhorias na análise de uploads de fotos e imagens, em perguntas de STEM, no julgamento de quando usar busca na web e em avaliações de raciocínio visual, matemática e ciências; em um exemplo de matemática, ele encontrou um erro na transposição de termos e chegou a
x = (3 + √33) / 2 - O GPT‑5.5 Instant foi ajustado para produzir respostas curtas e focadas mantendo os pontos principais, reduzindo prolixidade, formatação excessiva, perguntas de acompanhamento desnecessárias e uso desnecessário de emojis
- Ele também personaliza melhor ao usar contexto de chats anteriores, arquivos e Gmail conectado, e o novo recurso memory sources permite ver, excluir ou editar memórias salvas ou trechos de chats anteriores usados na resposta
Escopo da atualização e direção das respostas
- O Instant, modelo padrão do ChatGPT, passa de GPT‑5.3 Instant para GPT‑5.5 Instant e será disponibilizado para todos os usuários
- O Instant é usado diariamente por centenas de milhões de pessoas, então mesmo pequenas melhorias têm grande impacto na utilidade e na satisfação das interações cotidianas
- Esta atualização avança em direção a respostas mais fortes e compactas em vários temas, um tom de conversa mais natural e melhor aproveitamento do contexto que o usuário já compartilhou quando a personalização puder ajudar
Melhorias em precisão e raciocínio
- O GPT‑5.5 Instant melhorou a factualidade geral e mostrou os maiores avanços em áreas nas quais a precisão é crítica
- Em avaliações internas da OpenAI, o GPT‑5.5 Instant gerou 52,5% menos afirmações alucinatórias do que o GPT‑5.3 Instant em prompts de alto risco, como medicina, direito e finanças
- Em conversas especialmente difíceis, marcadas pelos usuários como contendo erros factuais, ele reduziu em 37,3% as afirmações imprecisas
- Também foi aprimorado como um modelo mais capaz em tarefas do dia a dia, incluindo análise de uploads de fotos e imagens, respostas a perguntas relacionadas a STEM e a capacidade de decidir quando usar busca na web para oferecer respostas mais úteis
- Também houve melhorias em avaliações de raciocínio visual, matemática e ciências
Exemplo de resposta de matemática
-
Resposta do GPT‑5.3 Instant
- Em um exemplo de equação com raiz quadrada no qual o usuário perguntou se a resolução estava correta, o GPT‑5.3 Instant inicialmente respondeu que elevar ao quadrado, desenvolver, fatorar e verificar o domínio estavam corretos
- Depois, ao substituir
x = 3na expressão original, confirmou que√10 ≠ 2e concluiu que se tratava de uma raiz espúria gerada no processo de elevar ao quadrado - No entanto, terminou com a conclusão incorreta de que não havia solução real, sem conseguir rastrear novamente o erro algébrico verdadeiro
-
Resposta do GPT‑5.5 Instant
- O GPT‑5.5 Instant também reconheceu inicialmente a resolução do usuário como correta, mas identificou o erro ao substituir
x = 3na expressão original e verificar que√10 ≠ 2 - Em seguida, descobriu que o problema não era apenas a raiz espúria, mas também um erro na transposição de termos, corrigindo
x + 7 = (x - 1)^2para mostrar que o resultado deveria ser0 = x^2 - 3x - 6 - Aplicando a fórmula quadrática, obteve
x = (3 ± √33) / 2e, com base na condiçãox ≥ 1, apresentou a solução válida como(3 + √33) / 2 - A resposta do GPT‑5.5 Instant se recupera do erro inicial, encontra o erro algébrico real e chega à solução correta
- O GPT‑5.5 Instant também reconheceu inicialmente a resolução do usuário como correta, mas identificou o erro ao substituir
Comunicação mais concisa
- O GPT‑5.5 Instant foi ajustado para fornecer respostas mais curtas e focadas sem perder os pontos centrais
- Mantendo o acolhimento e a personalidade que tornam o ChatGPT agradável de usar, ele transmite as mesmas informações de forma mais útil do que o modelo anterior e reduz a prolixidade e a formatação excessiva
- Faz menos perguntas de acompanhamento desnecessárias e evita elementos que deixam a resposta visualmente poluída, como emojis desnecessários
- Em um exemplo sobre como dizer a um colega de trabalho para falar menos, o GPT‑5.5 Instant usou 30,2% menos palavras e 29,2% menos linhas do que o GPT‑5.3 Instant
- O GPT‑5.5 Instant mantém um tom informal, porém prático e seguro para o ambiente de trabalho, oferece frases adequadas a diferentes situações e trata o problema como definição de limites, e não como traço de personalidade do colega
- O GPT‑5.3 Instant, embora mais completo por incluir até uma seção de “o que não fazer”, acaba entregando uma resposta um pouco excessiva em estrutura e polimento para um prompt casual de aconselhamento
Personalização e controle
- O Instant usa de forma mais eficaz o contexto de chats anteriores, arquivos e do Gmail conectado para personalizar melhor as respostas
- Ele decide de forma inteligente quando a personalização adicional pode melhorar a resposta e pesquisa conversas anteriores com mais rapidez para encontrar o contexto apropriado, evitando que o usuário precise repetir as mesmas informações
- Isso é especialmente útil ao receber sugestões e planos personalizados ou ao retomar um trabalho em andamento
- Em um exemplo de pedido de recomendação de carros, o GPT‑5.3 Instant refletiu o fato de o usuário estar em San Francisco e ofereceu recomendações gerais baseadas em localização
- O GPT‑5.5 Instant usou contexto anterior de que o usuário frequenta a Asha Tea House e prefere chás taiwaneses/de alta montanha, com sabor mais limpo, em vez de boba muito doce, para recomendar com mais precisão Ceré Tea, Song Tea & Ceramics, Tea Rex Cafe & Specialty Teas e Stonemill Matcha
memory sources
- O recurso memory sources foi introduzido em todos os modelos do ChatGPT, oferecendo um novo controle para visualizar que contexto foi usado na personalização da resposta
- Quando uma resposta for personalizada, será possível verificar que tipo de contexto foi usado, como memórias salvas ou chats anteriores, e excluir ou editar conteúdos antigos ou que já não sejam relevantes
- Em chats compartilhados, o memory sources não é mostrado para outras pessoas
- O usuário pode excluir chats que não quer mais que sejam citados, apagar ou alterar itens de memória salvos nas configurações, ou usar chats temporários que não utilizam nem atualizam memórias
- O memory sources foi criado para tornar a personalização mais compreensível, mas pode não mostrar sempre todos os elementos que influenciaram a resposta
- As sources podem mostrar apenas alguns dos chats anteriores mais relevantes, e não todos os chats anteriores pesquisados ou consultados; essa visualização deve se tornar mais abrangente com o tempo
Cronograma de disponibilização
- O GPT‑5.5 Instant começa a ser lançado gradualmente hoje para todos os usuários do ChatGPT, substituindo o GPT‑5.3 Instant como modelo padrão
- Na API, ele é disponibilizado como
chat-latest - Usuários pagos poderão continuar usando o GPT‑5.3 Instant por 3 meses por meio das configurações de seleção de modelo; depois disso, o GPT‑5.3 Instant será descontinuado
- A personalização aprimorada baseada em chats anteriores, arquivos e Gmail conectado será lançada gradualmente para usuários Plus e Pro na web, com chegada ao mobile em breve
- Há planos de expandir para Free, Go, Business e Enterprise nas próximas semanas
- O memory sources está sendo liberado gradualmente para todos os planos de consumidor do ChatGPT na web, com chegada ao mobile em breve
- A disponibilidade de determinadas fontes de personalização pode variar conforme a região
1 comentários
Comentários do Hacker News
Se você quer ver instantaneidade, dê uma olhada no chatjimmy.ai. Não sou afiliado, mas as possibilidades que isso abre no produto que estou criando são bem chocantes
Se inferência em milissegundos for possível mesmo em modelos bem mais antigos, isso muda completamente o jogo. É tão impressionante que daria para rodar inferência em praticamente toda chamada de API sem latência perceptível
Edit: era esta empresa https://taalas.com/products/
O GPT-5.3-instant não era nada instantâneo. Mesmo com esforço mínimo de inferência, no melhor caso o TTFT era algo como 3 a 4 vezes mais lento que o GPT-4.1
Claro, estou dizendo isso porque foram eles que deram o nome de “instant”. Existe uma necessidade real de atualizar o GPT-4.1, que é o operário do datacenter
E lançar um modelo “instant” sem mencionar em absoluto as características de latência é, sinceramente, muito estranho
Fico curioso sobre como isso difere de colocar o esforço de inferência em 0 no GPT 5.5 thinking. É uma decisão de produto interessante separar em modelos diferentes
Se for esse o caso, o modelo instant deve ser um modelo completamente diferente e menor, provavelmente voltado principalmente para o tier gratuito do ChatGPT
Isso também pode ser usado na API? Não vejo instant, só chat
As respostas parecem mais fáceis de ler, e espero que sejam mesmo assim na prática. O modelo padrão gratuito do ChatGPT atual é difícil de aguentar
Então houve um grande salto de inteligência na faixa de preço mais barata
chat-latestem https://developers.openai.com/api/docs/pricing aparece como $5/$30 de entrada/saída, o mesmo preço do gpt-5.5Por que eles não conseguem lançar os modelos Instant e Thinking de cada número de versão de forma mais consistente ao mesmo tempo? Não entendo por que criam toda essa confusão redundante
Legal. Saiu algo que parece realmente utilizável e com preço acessível