OpenAI lança GPT-5.5 e GPT-5.5 Pro na API
(developers.openai.com)- GPT-5.5 é o modelo mais recente adicionado à Chat Completions API e à Responses API, e o GPT-5.5 pro também foi adicionado às requisições da Responses API para problemas difíceis em que mais capacidade de computação é vantajosa
- Oferece amplo suporte a janela de contexto de 1 milhão de tokens, entrada de imagem, saída estruturada, chamada de função, prompt caching, Batch, tool search, computer use embutido, hosted shell, apply patch, Skills, MCP e pesquisa na web
- O valor padrão de reasoning effort foi definido como
medium, e quandoimage_detailnão está definido ou está comoauto, o comportamento anterior é mantido - O caching do GPT-5.5 funciona apenas com extended prompt caching e não oferece suporte a in-memory prompt caching
- O fluxo recente de mudanças na API está se expandindo além do lançamento de modelos para incluir image, audio, realtime, video e ferramentas de agent, e a linha GPT-5.5 ocupa posição de destaque entre as adições principais mais recentes
Changelog
- Os itens com descontinuação futura podem ser consultados em uma página separada
Abril de 2026
-
24 de abril
- GPT-5.5 foi lançado na Chat Completions API e na Responses API, e o GPT-5.5 pro também foi adicionado às requisições da Responses API para problemas difíceis em que mais capacidade de computação é vantajosa
- O GPT-5.5 oferece suporte a janela de contexto de 1 milhão de tokens, entrada de imagem, saída estruturada, chamada de função, prompt caching, Batch, tool search, computer use embutido, hosted shell, apply patch, Skills, MCP e pesquisa na web
- Entre as principais mudanças, o valor padrão de reasoning effort foi definido como
medium - Quando
image_detailnão está definido ou está comoauto, é usado o comportamento anterior - O caching do GPT-5.5 funciona apenas com extended prompt caching e não oferece suporte a in-memory prompt caching
- Mais detalhes: behavioral changes
-
21 de abril
- GPT Image 2 foi lançado como o modelo de geração de imagens mais recente para criação e edição de imagens
- O GPT Image 2 inclui tamanhos de imagem flexíveis, entrada de imagem de alta fidelidade, cobrança de imagem baseada em tokens e suporte à Batch API com 50% de desconto
-
15 de abril
- Novos recursos foram adicionados ao Agents SDK
- É possível executar agents em um sandbox controlado
- É possível inspecionar e personalizar o harness open source
- É possível controlar quando a memory é criada e onde ela é armazenada
- Novos recursos foram adicionados ao Agents SDK
Março de 2026
-
17 de março
- GPT-5.4 mini e GPT-5.4 nano foram lançados na Chat Completions API e na Responses API
- O GPT-5.4 mini oferece desempenho de nível GPT-5.4 em uma forma mais rápida e eficiente, adequada para workloads de alto throughput
- O GPT-5.4 nano é otimizado para tarefas simples em grande volume, nas quais velocidade e custo são os fatores mais importantes
- O GPT-5.4 mini oferece suporte a tool search, computer use embutido e compaction
- O GPT-5.4 nano oferece suporte a compaction, mas não a tool search nem computer use
-
16 de março
- O slug gpt-5.3-chat-latest foi atualizado para apontar para o modelo mais recente usado atualmente no ChatGPT
-
13 de março
- O encoder de imagem foi atualizado para corrigir um pequeno bug que ocorria na entrada
input_imagedo GPT-5.4 - A qualidade pode melhorar em alguns casos de uso de entendimento de imagem
- Nenhuma ação adicional é necessária
- O encoder de imagem foi atualizado para corrigir um pequeno bug que ocorria na entrada
-
12 de março
- A Sora API foi expandida com character reference reutilizável, gerações mais longas de até
20segundos, saída1080pparasora-2-pro, video extension e suporte à Batch API paraPOST /v1/videos - A geração em
1080pdosora-2-proé cobrada a$0.70por segundo - Mais detalhes: video generation guide
- A Sora API foi expandida com character reference reutilizável, gerações mais longas de até
-
Atualização de 12 de março
POST /v1/videos/editsfoi adicionado para edição de vídeos existentesPOST /v1/videos/{video_id}/remixé a rota que isso substitui e está prevista para descontinuação em6meses- Mais detalhes: edit existing videos
-
5 de março
- GPT-5.4 foi lançado na Chat Completions API e na Responses API, e o GPT-5.4 pro foi adicionado à Responses API para problemas difíceis em que mais capacidade de computação é vantajosa
- O tool search da Responses API foi lançado junto, permitindo que o modelo adie uma grande tool surface até o runtime para reduzir o uso de tokens, preservar o desempenho de cache e melhorar a latência
- Foi adicionado ao GPT-5.4 suporte a computer use embutido por meio da ferramenta
computerda Responses API, possibilitando interação de UI baseada em screenshots - Para workflows de agent de execução mais longa, ele oferece uma janela de contexto de 1 milhão de tokens e suporte nativo a Compaction
-
3 de março
gpt-5.3-chat-latestfoi lançado na Chat Completions API e na Responses API- Esse modelo aponta para o snapshot GPT-5.3 Instant atualmente usado no ChatGPT
- Mais detalhes: gpt-5.3-chat-latest
Fevereiro de 2026
-
24 de fevereiro
- Ampliação do suporte a
input_filepara aceitar mais formatos de arquivos de documentos, apresentações, planilhas, código e texto - Mais detalhes: file inputs
- Ampliação do suporte a
-
24 de fevereiro Responses API
- Adição de
phaseà Responses API - Rotulagem das mensagens do assistant separando a explicação intermediária
commentaryda resposta finalfinal_answer - Mais detalhes: phase
- Adição de
-
24 de fevereiro gpt-5.3-codex
- Lançamento de
gpt-5.3-codexna Responses API - Mais detalhes: gpt-5.3-codex
- Lançamento de
-
23 de fevereiro
- Introdução do WebSocket mode na Responses API
- Mais detalhes: websocket mode
-
23 de fevereiro modelos de áudio e em tempo real
- Lançamento de
gpt-realtime-1.5na Realtime API- Mais detalhes: gpt-realtime-1.5
- Lançamento de
gpt-audio-1.5na Chat Completions API- Mais detalhes: gpt-audio-1.5
- Lançamento de
-
10 de fevereiro GPT Image Batch
- Suporte da Batch API para
gpt-image-1.5,chatgpt-image-latest,gpt-image-1,gpt-image-1-mini
- Suporte da Batch API para
-
10 de fevereiro gpt-5.2-chat-latest
- O slug gpt-5.2-chat-latest foi atualizado para apontar para o modelo mais recente usado atualmente no ChatGPT
-
10 de fevereiro compaction
- Introdução de server-side compaction na Responses API
-
10 de fevereiro Skills
- Introdução do suporte a Skills na Responses API
- Suporte a Skills tanto em execução local quanto em execução baseada em hosted container
-
10 de fevereiro Hosted Shell
- Introdução da nova ferramenta Hosted Shell, com suporte também a rede dentro do contêiner
-
9 de fevereiro
- Adição de suporte a requisições
application/jsonem/v1/images/editsdo modelo GPT image - As requisições JSON usam referências
image_urloufile_idemimagesemaskopcional em vez de upload multipart
- Adição de suporte a requisições
-
3 de fevereiro
- Otimização da stack de inferência para clientes da API, fazendo com que GPT-5.2 e GPT-5.2-Codex rodem cerca de 40% mais rápido
- O modelo e os pesos do modelo não mudaram
Janeiro de 2026
-
15 de janeiro
- Anúncio do Open Responses
- Especificação open source para uma interface de LLM interoperável e multi-provider construída sobre a OpenAI Responses API
-
14 de janeiro
- Lançamento de
gpt-5.2-codexna Responses API - GPT-5.2-Codex é uma variante do GPT-5.2 otimizada para tarefas de agentic coding no Codex ou em ambientes semelhantes
- Mais detalhes: gpt-5.2-codex
- Lançamento de
-
13 de janeiro Realtime SIP
- Adição de uma faixa de IP SIP dedicada à Realtime API
sip.api.openai.comfaz roteamento GeoIP e envia o tráfego SIP para a região mais próxima- Mais detalhes: dedicated SIP IP ranges
-
13 de janeiro atualização de slugs de modelos
- Os slugs gpt-realtime-mini e gpt-audio-mini foram atualizados para apontar para o snapshot
2025-12-15 - Se você precisar dos snapshots anteriores dos modelos, use
gpt-realtime-mini-2025-10-06egpt-audio-mini-2025-10-06 - O slug sora-2 foi atualizado para apontar para
sora-2-2025-12-08 - Se você precisar do snapshot anterior de
sora-2, usesora-2-2025-10-06 - Os slugs
gpt-4o-mini-ttsegpt-4o-mini-transcribeforam atualizados para apontar para o snapshot2025-12-15 - Se você precisar dos snapshots anteriores dos modelos, use
gpt-4o-mini-tts-2025-03-20egpt-4o-mini-transcribe-2025-03-20 - Atualmente, é recomendado usar
gpt-4o-mini-transcribeem vez degpt-4o-transcribepara obter os melhores resultados
- Os slugs gpt-realtime-mini e gpt-audio-mini foram atualizados para apontar para o snapshot
-
9 de janeiro
- Correção de um problema em
/v1/images/editsno qualgpt-image-1.5echatgpt-image-latestusavam high fidelity por engano mesmo quandofidelityera explicitamente definido comolow
- Correção de um problema em
Dezembro de 2025
-
19 de dezembro
gpt-image-1.5echatgpt-image-latestforam adicionados à ferramenta de geração de imagens da Responses API
-
16 de dezembro
- gpt-image-1.5 e chatgpt-image-latest foram lançados como os mais recentes modelos avançados de geração de imagem
- Mais detalhes: image generation guide
-
15 de dezembro
- Quatro novos snapshots de áudio com data foram lançados
- Esta atualização melhora a confiabilidade, a qualidade e a fidelidade de voz de aplicações em tempo real baseadas em voz
- Mais detalhes: updates audio models
gpt-realtime-mini-2025-12-15gpt-audio-mini-2025-12-15gpt-4o-mini-transcribe-2025-12-15gpt-4o-mini-tts-2025-12-15- Este lançamento também inclui suporte a Custom voices para clientes elegíveis
-
11 de dezembro GPT-5.2
- GPT-5.2 foi lançado como o mais novo modelo flagship da família GPT-5
- Em comparação com o GPT-5.1, houve melhorias em inteligência geral, seguimento de instruções, precisão e eficiência de tokens, multimodalidade especialmente visão, geração de código especialmente geração de UI frontend, tool calling e gerenciamento de contexto na API, além de entendimento e geração de planilhas
- Foram adicionados o nível de reasoning effort
xhigh, um reasoning summary conciso e um novo gerenciamento de contexto com uso de compaction
-
11 de dezembro client-side compaction
- client-side compaction foi lançado
- Em conversas de longa duração na Responses API, é possível reduzir o contexto enviado a cada turno com o endpoint
/responses/compact
-
4 de dezembro
gpt-5.1-codex-maxfoi lançado na Responses API- GPT-5.1-Codex é o modelo de codificação mais inteligente, otimizado para tarefas de agentic coding de longo horizonte
- Mais detalhes: gpt-5.1-codex-max
Novembro de 2025
-
20 de novembro
- Foi adicionado suporte a entrada de teclas DTMF na Realtime API
- É possível receber eventos DTMF ao usar uma Realtime sideband connection
- Mais detalhes: dtmf_event_received
-
13 de novembro GPT-5.1
- GPT-5.1 foi lançado como o mais novo modelo flagship da família GPT-5
- Foi treinado para ser especialmente forte em steerability, respostas mais rápidas em situações que exigem menos reflexão, geração de código e casos de uso de coding, além de agentic workflow
- O GPT-5.1 usa por padrão a nova configuração de reasoning
nonepara respostas rápidas em situações que exigem menos reflexão - Esse padrão é diferente do padrão anterior
mediumdo GPT-5
-
13 de novembro RBAC
- role-based access controls aprimorados foram lançados
- O RBAC permite determinar quem pode fazer o quê em toda a organização e nos projetos, tanto na API quanto no Dashboard
-
13 de novembro GPT-5.1-Codex
gpt-5.1-codexegpt-5.1-codex-miniforam lançados na Responses API- GPT-5.1-Codex é uma variante do GPT-5.1 otimizada para tarefas de agentic coding no Codex ou em ambientes semelhantes
- Mais detalhes: gpt-5.1-codex
-
13 de novembro extended prompt caching
- extended prompt cache retention foi lançado
- Mantém o prefixo em cache ativo por mais tempo, por até 24 horas
- Quando a memória fica cheia, descarrega os tensores key/value para o armazenamento local da GPU, aumentando bastante a capacidade de armazenamento disponível para cache
Outubro de 2025
-
29 de outubro
gpt-oss-safeguard-120begpt-oss-safeguard-20bsão modelos de raciocínio de segurança construídos sobre o gpt-oss- Mais detalhes: gpt-oss-safeguard collection
-
24 de outubro
- Lançamento do Enterprise Key Management (EKM)
- O EKM permite criptografar conteúdo de clientes na OpenAI usando chaves gerenciadas em um Key Management System (KMS) externo
- Também foi lançado o UK data residency
-
6 de outubro OpenAI DevDay
- Vários recursos foram anunciados no OpenAI DevDay
- Lançamento do gpt-5-pro
- Usa mais computação do que o GPT-5 para pensar mais profundamente e fornecer respostas consistentemente melhores
- Lançamento do gpt-realtime-mini e do gpt-audio-mini para desempenho speech-to-speech com melhor custo-benefício
- Lançamento do gpt-image-1-mini para geração e edição de imagens com melhor custo-benefício
- Lançamento do v1/videos para geração e remix de vídeos ricos, detalhados e dinâmicos com os modelos mais recentes Sora 2 e Sora 2 Pro
- Lançamento do Agent Builder, que permite criar visualmente workflows multi-agent customizados
- Lançamento do ChatKit, uma interface de chat incorporável para implantação de agents
- Lançamento de Trace Evals, Datasets, and Prompt Optimization tools
- Adicionado suporte a modelos de terceiros em Evals
- Lançamento do Service health dashboard
-
1 de outubro
- Lançamento do IP allowlist
- Restringe o acesso à API apenas aos endereços IP ou intervalos especificados
Setembro de 2025
-
26 de setembro
- Suporte a imagens e arquivos como tool call output na Responses API
-
23 de setembro
- Lançamento do gpt-5-codex como modelo de propósito específico
- Construído e otimizado para uso com o Codex CLI
Agosto de 2025
-
28 de agosto
- A OpenAI Realtime API foi lançada oficialmente
- Mais detalhes: Realtime API guide
-
21 de agosto
- Adicionado suporte a connectors na Responses API
- Connectors são wrappers MCP mantidos pela OpenAI para serviços populares como Google apps e Dropbox, e podem ser usados para dar ao modelo acesso de leitura a dados armazenados nesses serviços
-
20 de agosto
- Lançamento da Conversations API
- Junto com a Responses API, permite criar e gerenciar conversas de longa duração
- É possível ver como migrar da integração da Assistants API para Responses e Conversations, além de uma comparação lado a lado, no migration guide
-
7 de agosto
- Lançamento na API dos modelos da família GPT-5 gpt-5, gpt-5-mini e gpt-5-nano
- Introduzido o valor
minimalde reasoning effort para otimização de respostas rápidas em modelos GPT-5 com suporte a reasoning - Introduzido o tipo
customde tool call, que permite entrada e saída em formato livre
Junho de 2025
-
27 de junho
- Lançado suporte a Priority processing
- Oferece latência muito menor e mais consistente do que o Standard processing, mantendo a flexibilidade de cobrança por uso
-
24 de junho
- Lançados o3-deep-research e o4-mini-deep-research na Responses API
- Variantes de deep research dos modelos de reasoning da série o, otimizadas para análise profunda e tarefas de pesquisa
- Mais detalhes: deep research guide
- Adicionado suporte a processamento assíncrono de eventos via webhooks
- Os preços da ferramenta de busca na web foram reduzidos e simplificados
- Adicionado suporte à web search tool
-
13 de junho
- Novos reusable prompts passaram a poder ser usados no Dashboard e na Responses API
- Na API, é possível referenciar templates criados no Dashboard com o parâmetro
prompt, enviando junto oiddo prompt,versionopcional evariablesdinâmicas que podem incluir entradas de string, imagem e arquivo - reusable prompts não podem ser usados no Chat Completions
- Mais detalhes: reusable prompts
-
10 de junho
- Lançado o3-pro na Responses API e na Batch API
- Usa mais computação do que o modelo de reasoning o3 para responder a problemas difíceis com reasoning e consistência melhores
- Os preços do modelo o3 foram reduzidos em todas as requisições de API, incluindo batch e flex processing
- Mais detalhes: pricing
-
4 de junho
- Adicionado suporte a fine-tuning com direct preference optimization para
gpt-4.1-2025-04-14,gpt-4.1-mini-2025-04-14egpt-4.1-nano-2025-04-14
- Adicionado suporte a fine-tuning com direct preference optimization para
-
3 de junho
- Disponibilizados novos snapshots de modelo de gpt-4o-audio-preview e gpt-4o-realtime-preview
- Lançado o Agents SDK for TypeScript
Maio de 2025
-
20 de maio ferramentas integradas
- Adicionadas novas ferramentas integradas à Responses API
- Incluem remote MCP servers e code interpreter
- Mais detalhes: tools
-
20 de maio schema
- Passou a ser possível usar o modo
strictem schemas de ferramentas durante parallel tool calling de modelos sem fine-tuning na Responses API e na Chat Completions API - Também foram adicionados novos schema features, incluindo validação de strings para
emaile outros padrões, além de definição de intervalos para números e arrays
- Passou a ser possível usar o modo
-
15 de maio
- Lançado codex-mini-latest na API
- Otimizado para uso com o Codex CLI
-
7 de maio
- Lançado suporte a reinforcement fine-tuning
- Os métodos de fine-tuning disponíveis podem ser consultados no fine-tuning guide
- gpt-4.1-nano foi adicionado como modelo compatível com fine-tuning
Abril de 2025
-
30 de abril
- Lançado suporte a Enhanced API Budget Alerts & Auto-recharge Limits
-
23 de abril
- Adicionado o modelo de geração de imagem
gpt-image-1 - Esse modelo melhora qualidade e instruction following, estabelecendo um novo padrão para geração de imagens
- Os endpoints de Image Generation e Edit também foram atualizados para suportar novos parâmetros exclusivos do
gpt-image-1
- Adicionado o modelo de geração de imagem
-
16 de abril
- Adicionados
o3eo4-mini, dois modelos de reasoning da série o, à Chat Completions API e à Responses API - Estabelecem um novo padrão em matemática, ciência, programação, tarefas de visual reasoning e redação de documentos técnicos
- Também foi lançado o Codex, ferramenta de CLI para geração de código
- Adicionados
-
14 de abril
- Adicionados gpt-4.1, gpt-4.1-mini e gpt-4.1-nano à API
- Oferecem instruction following, programação e uma janela de contexto maior de até 1 milhão de tokens
gpt-4.1egpt-4.1-minisuportam supervised fine-tuning- Também foi anunciado o fim do suporte ao gpt-4.5-preview
Março de 2025
-
20 de março
- Adicionados os modelos
gpt-4o-mini-tts,gpt-4o-transcribe,gpt-4o-mini-transcribeewhisper-1à Audio API
- Adicionados os modelos
-
19 de março
-
11 de março
- Lançados vários novos modelos, ferramentas e uma nova API para agentic workflows
- Lançamento da Responses API, permitindo criar e usar agents e ferramentas
- Lançamento de um conjunto de ferramentas integradas para a Responses API: web search, file search e computer use
- Lançamento do Agents SDK, um framework de orchestration para projetar, construir e implantar agents
- Anunciados os modelos
gpt-4o-search-preview,gpt-4o-mini-search-previewecomputer-use-preview - Informado o plano de migrar todos os recursos da Assistants API para a Responses API, que é mais fácil de usar, e comunicada a previsão de encerrar a Assistants em 2026 após alcançar equivalência total de funcionalidades
-
3 de março
- Adicionado suporte ao campo
metadataem fine-tuning jobs
- Adicionado suporte ao campo
Fevereiro de 2025
-
27 de fevereiro
- Lançamento do GPT-4.5 como research preview na Chat Completions API, Assistants API e Batch API
- O GPT-4.5 é apresentado como o maior e mais capaz modelo de chat, com mais força em trabalho criativo e agentic planning com base em alto EQ e compreensão da intenção do usuário
-
25 de fevereiro
- Lançamento da API Usage Dashboard Update
- Incorpora solicitações de filtros de dados adicionais, como seleção de projeto, seletor de datas e intervalos de tempo granulares
- Permite visualizar melhor o uso em diferentes produtos e service tiers
-
5 de fevereiro
- Introduzida a residência de dados na Europa
- Mais detalhes: your data
Janeiro de 2025
-
31 de janeiro
- Lançamento do o3-mini como um pequeno modelo de reasoning
- Otimizado para tarefas de ciência, matemática e programação
-
21 de janeiro
- Expandido o acesso ao modelo o1
- Os modelos da família o1 foram treinados com reinforcement learning para realizar reasoning complexo
Dezembro de 2024
-
18 de dezembro
- Lançamento do Admin API Key Rotations, permitindo rotacionar programaticamente admin API keys
- Atualização do Admin API Invites, permitindo convidar programaticamente usuários para projetos ao mesmo tempo que se faz o convite para a organização
-
17 de dezembro
- Adicionados novos modelos, incluindo o1, gpt-4o-realtime e gpt-4o-audio
- Adicionado o método de conexão WebRTC à Realtime API
- Adicionado o parâmetro reasoning_effort ao modelo o1
- Adicionado o papel de developer message ao modelo o1
o1-previeweo1-mininão oferecem suporte a system nem developer message- Lançamento do Preference Fine-tuning com Direct Preference Optimization (DPO)
- Lançamento de SDKs beta para Go e Java
- Mais detalhes: libraries
- Adicionado suporte à Realtime API no Python SDK
-
4 de dezembro
- Lançamento da Usage API
- Permite consultar programaticamente atividade e gastos em toda a OpenAI API
Novembro de 2024
-
20 de novembro
- Lançamento do gpt-4o-2024-11-20 em
v1/chat/completions - É o modelo mais recente da família gpt-4o
- Lançamento do gpt-4o-2024-11-20 em
-
4 de novembro
- Lançamento de Predicted Outputs
- Reduz significativamente a latência da resposta do modelo em situações em que grande parte da resposta já é conhecida com antecedência
- Especialmente usado com frequência ao regenerar conteúdo de documentos e arquivos de código com apenas pequenas alterações
Outubro de 2024
-
30 de outubro
- Adicionados cinco novos tipos de voz à Realtime API e à Chat Completions API
- Os modelos contemplados são
gpt-4o-realtime-previewegpt-4o-audio-preview, e o endpointv1/chat/completionstambém é explicitamente mencionado
-
17 de outubro
- Lançado o novo modelo
gpt-4o-audio-preview - Passa a oferecer suporte a entrada e saída de áudio no Chat Completions
- Esse modelo usa o mesmo modelo base da Realtime API
- Lançado o novo modelo
-
1º de outubro OpenAI DevDay in San Francisco
- Vários recursos foram anunciados no OpenAI DevDay in San Francisco
- A Realtime API permite criar experiências rápidas de speech-to-speech em aplicativos por meio de uma interface WebSockets
- Model distillation permite fazer fine-tuning de modelos com melhor custo-benefício usando a saída de grandes modelos frontier
- Image fine-tuning permite fazer fine-tuning do GPT-4o com imagens e texto para melhorar capacidades visuais
- Evals oferece a execução de avaliações personalizadas para medir o desempenho do modelo em tarefas específicas
- Prompt caching oferece desconto e tempo de processamento mais rápido para tokens de entrada vistos recentemente
- Generate in playground permite gerar facilmente prompts, definições de função e schemas de saída estruturada com o botão Generate
Setembro de 2024
-
26 de setembro
- Lançado o novo modelo de moderação
omni-moderation-latest - Oferece suporte a imagem e texto, e em algumas categorias lida com texto e imagem em conjunto
- Passa a oferecer suporte a duas novas categorias de dano apenas para texto, com maior precisão de pontuação
- Lançado o novo modelo de moderação
-
12 de setembro
- o1-preview e o1-mini foram anunciados
- Os dois modelos são novos modelos de linguagem de grande porte treinados com aprendizado por reforço e voltados para executar tarefas de raciocínio complexas
- O endpoint é indicado como
v1/chat/completions
Agosto de 2024
-
29 de agosto
- A Assistants API passou a oferecer suporte à inclusão dos resultados de busca usados pela ferramenta file search e à customização do comportamento de ranking
-
20 de agosto
- O fine-tuning de
gpt-4o-2024-08-06entrou em GA, permitindo que todos os usuários da API façam fine-tuning do modelo GPT-4o mais recente
- O fine-tuning de
-
15 de agosto
- O modelo dinâmico para
chatgpt-4o-latestfoi lançado e configurado para apontar para o modelo GPT-4o mais recente usado pelo ChatGPT
- O modelo dinâmico para
-
6 de agosto
- Structured Outputs foi lançado para que a saída do modelo siga com confiabilidade o JSON Schema fornecido pelo desenvolvedor
- No mesmo dia, gpt-4o-2024-08-06 também foi lançado como o modelo mais recente da série gpt-4o
-
1º de agosto
- Admin and Audit Log APIs foram lançadas para permitir o gerenciamento programático da organização e o monitoramento de mudanças com audit logs
- O audit logging precisa ser ativado em settings
Julho de 2024
-
24 de julho
- Lançada a self-serve SSO configuration
- Clientes Enterprise com custom billing e unlimited billing podem configurar autenticação de acordo com o IDP desejado
-
23 de julho
- Lançado o fine-tuning do GPT-4o mini, permitindo buscar desempenho mais alto em casos de uso específicos
-
18 de julho
- GPT-4o mini foi anunciado
- Foi apresentado como um modelo pequeno de baixo custo para tarefas rápidas e leves
-
17 de julho
- Uploads foi lançado para permitir o upload de arquivos grandes divididos em várias partes
Junho de 2024
-
6 de junho
- No Chat Completions e na Assistants API, passou a ser possível desativar chamadas paralelas de função enviando
parallel_tool_calls=false - O .NET SDK foi lançado em Beta
- No Chat Completions e na Assistants API, passou a ser possível desativar chamadas paralelas de função enviando
-
3 de junho
- Adicionado suporte a file search customizations
Maio de 2024
-
15 de maio
- Adicionado suporte a arquivo de projetos, com acesso restrito apenas ao organization owner
- Também foi adicionado suporte para definir limites de custo por projeto para clientes com cobrança por uso
-
13 de maio
- GPT-4o foi lançado na API
- É descrito como o modelo flagship mais rápido e mais barato
-
9 de maio
- A Assistants API passou a oferecer suporte a entrada de imagem
-
7 de maio
- A Batch API passou a oferecer suporte a modelos ajustados por fine-tuning
-
6 de maio
- Adicionado o parâmetro
stream_options: {"include_usage": true}à Chat Completions API e à Completions API - Com essa configuração, é possível acessar as estatísticas de usage durante o streaming
- Adicionado o parâmetro
-
2 de maio
- Adicionado um novo endpoint para excluir mensagens de threads na Assistants API
Abril de 2024
-
29 de abril
- Adicionada a opção de function calling
tool_choice: "required"à Chat Completions API e à Assistants API - Também foram adicionados o guia da Batch API e o suporte a modelos de embeddings na Batch API
- Adicionada a opção de function calling
-
17 de abril
- Introduzido um pacote de atualizações da Assistants API
- A nova file search tool permite até 10.000 arquivos por assistant
- Também inclui suporte a novos token controls e tool choice
-
16 de abril
- Introduzida uma hierarquia baseada em projetos para organizar o trabalho por projeto
- É possível criar API keys
- É possível gerenciar rate limit e cost limit por projeto, e o cost limit é oferecido apenas para clientes Enterprise
-
15 de abril
- Lançada a Batch API
-
9 de abril
- GPT-4 Turbo with Vision passou para disponibilidade geral na API
-
4 de abril
- Adicionado suporte a seed na API de fine-tuning
- Adicionado suporte a checkpoints na API de fine-tuning
- A Assistants API passou a permitir adicionar Messages ao criar um Run
-
1º de abril
- A Assistants API passou a oferecer suporte a filtragem de Messages por run_id
Março de 2024
-
29 de março
- Adicionado suporte a temperature e à criação de assistant message na Assistants API
-
14 de março
- Adicionado suporte a streaming na Assistants API
Fevereiro de 2024
-
9 de fevereiro
- Adicionado o parâmetro
timestamp_granularitiesà Audio API
- Adicionado o parâmetro
-
1º de fevereiro
- gpt-3.5-turbo-0125 foi lançado como o modelo GPT-3.5 Turbo atualizado
Janeiro de 2024
-
25 de janeiro
- Foram apresentados os modelos embedding V3 e a preview atualizada do GPT-4 Turbo
- Adicionado o parâmetro
dimensionsà Embeddings API
Dezembro de 2023
-
20 de dezembro
- Adicionado o parâmetro
additional_instructionsà criação de Run na Assistants API
- Adicionado o parâmetro
-
15 de dezembro
- Adicionados os parâmetros
logprobsetop_logprobsà Chat Completions API
- Adicionados os parâmetros
-
14 de dezembro
- Os argumentos de function parameters de tool call passaram a ser opcionais
novembro de 2023
-
30 de novembro
- Lançamento do OpenAI Deno SDK
-
6 de novembro
- Vários itens foram anunciados em conjunto
- GPT-4 Turbo Preview
- GPT-3.5 Turbo atualizado
- GPT-4 Turbo with Vision
- Assistants API
- DALL·E 3 in the API
- API de conversão de texto em fala
- O parâmetro
functionsde Chat Completions foi marcado como deprecated, com substituição planejada por tools - Lançamento do OpenAI Python SDK V1.0
outubro de 2023
-
16 de outubro
- Adição do parâmetro
encoding_formatà Embeddings API - Adição de
max_tokensaos Moderation models
- Adição do parâmetro
-
6 de outubro
- Adição de suporte a function calling à Fine-tuning API
2 comentários
Agora, a partir da 5.4, o
pronão é mais oferecido na Chat Completions API.Comentários do Hacker News
Testei na hora por causa de um problema em produção, e o GPT-5.5 fez uma coisa que o Claude não costuma fazer desse jeito
Depois do troubleshooting, ele me fez usar uma instrução
update, e quando eu disse "beleza, vamos envolver isso numa transaction e colocar rollback também", ele respondeu no estilo antigo:BEGIN TRAN;-- put the query herecommit;só isso
Já fazia um tempo que eu não precisava empurrar o modelo de novo para ele realmente fazer o que eu pedi, então isso foi bem chocante
Entendo querer gastar menos tokens, mas estou pagando por um modelo de ponta, então é irritante quando ele vem com essa preguiça
Só testei porque apareceu no seletor de modelos do Cursor
Se o problema foi ele colocar só
-- put the query herena resposta e não repetir a query, eu não diria necessariamente que isso é um problemaSe o objetivo real era obter a query para executar e você disse "vamos fazer isso numa transaction", então é bem razoável ele só te dizer para colocar um
beginantesSe a query era longa, isso ainda economiza tokens, e é parecido com quando dá
permission deniede, em vez de reescrever o comando inteiro, te dizem para só colocarsudona frentePor outro lado, se você esperava que o modelo realmente executasse a query e ele veio com um "tá aqui, executa você", aí sim isso é claramente preguiçoso e dá para entender o espanto
Dá até para pensar "então é assim que surge um emergent behavior"
Brincadeiras à parte, essa obsessão da OpenAI por otimizar intelligence por token me lembra a fase da Apple antes do M1, quando estava obcecada em deixar o MacBook cada vez mais fino
Passa a sensação de perseguir uma métrica única até o fim e sacrificar todo o resto
O GPT-5.3+ claramente está entre os modelos mais inteligentes, mas às vezes é tão preguiçoso que fica doloroso trabalhar com ele
Acabei de rodar no meu benchmark de Wordpress+GravityForms, e ele ficou no fundo da tabela até em desempenho bruto, além de ter o pior custo-benefício: https://github.com/guilamu/llms-wordpress-plugin-benchmark
Eu sei que é só um benchmark, mas não consigo entender como pode ser tão ruim assim
Hoje em dia o significado das palavras se desfaz muito facilmente, então esse tipo de coisa ficou comum
Até fóruns que antes eram cheios de gente que realmente fazia trabalho técnico agora parecem ser ocupados por uma massa de vibe researchers; quando passa de certo limiar de popularidade, sempre acaba assim
O HN ainda parece um dos últimos redutos onde sobra alguma investigação séria, mas vendo o comentário original dá para notar que não é totalmente imune
Eu até gostei desse tipo de benchmarking
Fiquei curioso sobre como você avaliou o judge benchmark, porque eu também queria montar algo parecido por conta própria
O prompt é extremamente raso, mas os critérios de avaliação são muitos
Os preços por tamanho de contexto estão assim
Entrada: $5/M até 272K, $10/M acima disso
Saída: $30/M até 272K, $45/M acima disso
Leitura de cache: $0.50/M até 272K, $1/M acima disso
Passando de 272K, ele fica claramente mais caro que o Opus 4.7, e pelo menos nas minhas tarefas não pareceu ter eficiência de token suficiente para compensar
Não foi o bastante para neutralizar essa diferença de preço
O GPT-5.4 tinha como ponto forte o contexto de 400k e uma compaction confiável, e parece que os dois regrediram um pouco
Dito isso, ainda é cedo para afirmar com certeza se a confiabilidade da compaction realmente piorou
A saída de frontend também continua tendendo para aquele template azul cheio de cards chamativos
É um estilo que já parecia suspeito desde a época do Horizon Alpha/Beta, antes do lançamento do GPT-5, mas naquela época a task adherence era tão boa que ainda valia a pena aceitar esse grande defeito
Só que é estranho que o GPT-5.5, sendo vendido como uma foundation totalmente nova, ainda esteja tão limitado nisso
Os resultados de benchmark de raciocínio de programação geral do GPT 5.5 já subiram em https://gertlabs.com/
Avaliações de decisão em tempo real e testes agentic mais pesados ainda devem ser adicionados ao longo de 24 horas, mas agora já não parece que o ranking do leaderboard vá mudar
O GPT 5.5 é o modelo público mais inteligente e está claramente mais rápido que o anterior
Ontem disseram o seguinte
https://simonwillison.net/2026/Apr/23/gpt-5-5/#the-openclaw-backdoor
Então fico pensando se isso pode ter acelerado este lançamento
Há precedentes
Não sei se é só impressão minha, mas em cada notícia dessas sobre a OpenAI parece que aparecem comentaristas pagos ou bots tentando diminuir o Claude e empurrar a ideia de que o Codex é muito melhor
É gente demais, e várias das alegações não batem com a experiência de quem usa Claude todo dia
Lembra um pouco como todo mundo parece ter esquecido que a OpenAI traiu a democracia ao concordar em colaborar com armas autônomas sem supervisão e vigilância doméstica em massa
Pelo menos começou a ficar visível logo depois do hype do Opus 4.6
Hoje em dia toda empresa empurrando o próprio produto faz mais ou menos o mesmo
Sou usuário Enterprise, mas ainda só vejo o 5.4
No anúncio de ontem disseram que levaria algumas horas até o rollout para todo mundo, mas a OpenAI precisa melhorar o GTM para gerenciar expectativas
Bom ver que liberaram rápido
Da próxima vez vou reclamar mais cedo
É o segundo modelo a tirar 25/25 no meu benchmark
O primeiro foi o Opus 4.7, e os resultados estão aqui: https://sql-benchmark.nicklothian.com/?highlight=openai_gpt-5.5
Mais barato e mais lento que o Opus
Na página da API, o knowledge cutoff aparece como 2025-12-01, mas se você perguntar diretamente ao modelo ele responde junho de 2024
Knowledge cutoff: 2024-06Current date: 2026-04-24You are an AI assistant accessed via an API.Perguntar ao próprio modelo para verificar a data de cutoff sempre foi um dos métodos menos confiáveis
Ele pode até ter aprendido com comentários como este
Basta perguntar sobre algum evento que aconteceu logo antes de 2025-12-01
Se possível, melhor ainda se for de partida esportiva
Muitas páginas de API de modelos antigos também mostravam cutoff em junho de 2024, então ele pode simplesmente estar repetindo isso
A forma correta de verificar o cutoff real é perguntar sobre algo que não existia ou não tinha acontecido antes daquela data
Pelo que testei algumas vezes, o cutoff de conhecimento geral do 5.5 ainda parece ficar em algum ponto do começo de 2025
A combinação GPT 5.5 + Codex está muito boa mesmo
Seja para tirar dúvidas, montar planos ou implementar código, agora eu já quase delego sem hesitar
O Opus 4.7 ainda me faz ficar conferindo tudo em dobro
Ele segue mal as instruções de
CLAUDE.md, alucina bastante e, quando não acha a resposta, tende a inventar uma por padrão, então isso pesa muitoNo ano passado o pessoal foi rapidíssimo em dizer que a OpenAI tinha ficado para trás, que era code red, mas olhando agora a situação mudou completamente