OpenAI anuncia grande expansão do recurso de memória do ChatGPT
(arstechnica.com)A seguir, um resumo estruturado em coreano, elaborado com base no artigo da Ars Technica "ChatGPT can now remember and reference all your previous chats" (de 11 de abril de 2025), para leitores coreanos desenvolvedores e profissionais de tecnologia. O foco está nas mudanças técnicas, no aumento da personalização para o usuário e nas preocupações com privacidade.
1. Contexto da mudança: limites do recurso de memória anterior
A OpenAI já permitia anteriormente salvar algumas informações personalizadas do usuário por meio do recurso “Memory” e refletir isso nas conversas. No entanto, esse recurso tinha as seguintes limitações:
- As informações salvas eram limitadas a poucos fatos principais
- O salvamento só acontecia se o usuário desse instruções diretas, como “lembre-se disso”
- Quando algo era salvo, aparecia na tela um aviso de que “a memória foi atualizada”
- Ao usar o recurso Temporary Chat, a memória era desativada
2. Novo recurso: memória baseada em todo o histórico de conversas
Em abril de 2025, a OpenAI anunciou que iria expandir de forma significativa o recurso de memória do ChatGPT.
-
Surgem duas opções de escolha:
- Memory existente: salva apenas informações limitadas do usuário
- Novo Chat History Memory: consulta todo o conteúdo das conversas anteriores para melhorar a qualidade das respostas e o nível de personalização
-
O conteúdo lembrado não pode ser visualizado nem editado diretamente (estrutura de caixa-preta)
-
Pode ser totalmente desativado nas configurações (mantendo o modo anterior)
Resumo: foi adicionada a capacidade de refletir o próprio “contexto” das conversas anteriores nas respostas. Já não se trata de uma memória fragmentada, mas de uma personalização contínua e cumulativa do usuário.
3. Escopo de aplicação e cronograma de lançamento
- Público-alvo: usuários do ChatGPT Plus e Pro a partir de abril de 2025
- Lançamento gradual: alguns países ficam de fora (UE, Reino Unido, Islândia, Noruega, Liechtenstein, Suíça)
- Aplicação futura prevista: usuários Enterprise, Team e Edu
- Ainda não há plano de aplicar isso a usuários gratuitos
4. Implicações técnicas e filosóficas
✔ Efeitos esperados
- Possibilidade de respostas mais alinhadas ao perfil, estilo de escrita e preferências do usuário
- Evolução para um agente personalizado baseado em conversas de longo prazo
✔ Principais preocupações
- Falta de transparência: não é possível verificar nem corrigir quais informações foram lembradas
- Possibilidade de invasão de privacidade: registros armazenados no servidor podem ser usados de forma não intencional
Os históricos de conversa já eram armazenados nos servidores antes, mas esta atualização ganha importância porque, a partir de agora, eles passam a ser usados de fato de forma mais ampla na geração de respostas
5. Resumo geral
| Item | Conteúdo |
|---|---|
| Mudança | Introdução de um novo recurso de memória que ajusta respostas com base em todo o histórico de conversas |
| Aplicação | Implementação gradual começando por usuários Plus/Pro, excluindo a Europa |
| Diferença | No modelo anterior era possível editar informações; no novo recurso, o processo é totalmente automático e inacessível |
| Efeito esperado | Melhora na qualidade de respostas personalizadas e manutenção do contexto da conversa |
| Preocupações | Falta de controle do usuário e aumento dos riscos de privacidade |
6. Encerramento
Essa mudança representa um importante ponto de inflexão na direção da personalização dos LLMs. Vai além de uma simples função de memória e indica a evolução para uma IA no estilo de “assistente pessoal” que aprende e se adapta continuamente. No entanto, a estrutura de memória em caixa-preta também traz junto debates de ética tecnológica sobre privacidade e perda de controle. No fim, a adoção dessa tecnologia dependerá da escolha do usuário, e a transparência e o design responsável das empresas se tornarão ainda mais importantes.
2 comentários
Fico curioso sobre o efeito disso no consumo de tokens. Se o conteúdo da memória for acumulado antes do contexto de entrada, talvez até haja cache hit, mas sinto falta de uma explicação mais transparente.
Acabei de tentar pedir para imprimir a memória exatamente como ela é, e parece que primeiro vem listada a memória existente (lembranças por solicitação do usuário) como
Model Set Context, depois aparecem, organizadas por situação, descrições das características de resposta preferidas pelo usuário comoAssistance Response Preference, e por fim são anexados resumos de conteúdos dignos de nota de conversas passadas comoNotable Past Conversation Topic Highlights. Parece que, literalmente, não são anexados os tokens de todo o conteúdo de todos os chats.Abaixo está a explicação do ChatGPT
A memória persistente (
Persistent Memory) inclui apenas as informações salvas explicitamente por meio do comando=bio, e somente essas informações continuam sendo lembradas entre sessões.Por outro lado, preferências de resposta ou resumos de temas de conversa se enquadram em
Ephemeral Contexte são gerados automaticamente com base nas interações recentes. O contexto efêmero só pode ser visto durante a sessão e, quando a sessão termina, não é salvo nem consultado depois.