2 pontos por baeba 2025-05-19 | 2 comentários | Compartilhar no WhatsApp

A seguir, um resumo estruturado em coreano, elaborado com base no artigo da Ars Technica "ChatGPT can now remember and reference all your previous chats" (de 11 de abril de 2025), para leitores coreanos desenvolvedores e profissionais de tecnologia. O foco está nas mudanças técnicas, no aumento da personalização para o usuário e nas preocupações com privacidade.


1. Contexto da mudança: limites do recurso de memória anterior

A OpenAI já permitia anteriormente salvar algumas informações personalizadas do usuário por meio do recurso “Memory” e refletir isso nas conversas. No entanto, esse recurso tinha as seguintes limitações:

  • As informações salvas eram limitadas a poucos fatos principais
  • O salvamento só acontecia se o usuário desse instruções diretas, como “lembre-se disso”
  • Quando algo era salvo, aparecia na tela um aviso de que “a memória foi atualizada”
  • Ao usar o recurso Temporary Chat, a memória era desativada

2. Novo recurso: memória baseada em todo o histórico de conversas

Em abril de 2025, a OpenAI anunciou que iria expandir de forma significativa o recurso de memória do ChatGPT.

  • Surgem duas opções de escolha:

    • Memory existente: salva apenas informações limitadas do usuário
    • Novo Chat History Memory: consulta todo o conteúdo das conversas anteriores para melhorar a qualidade das respostas e o nível de personalização
  • O conteúdo lembrado não pode ser visualizado nem editado diretamente (estrutura de caixa-preta)

  • Pode ser totalmente desativado nas configurações (mantendo o modo anterior)

Resumo: foi adicionada a capacidade de refletir o próprio “contexto” das conversas anteriores nas respostas. Já não se trata de uma memória fragmentada, mas de uma personalização contínua e cumulativa do usuário.


3. Escopo de aplicação e cronograma de lançamento

  • Público-alvo: usuários do ChatGPT Plus e Pro a partir de abril de 2025
  • Lançamento gradual: alguns países ficam de fora (UE, Reino Unido, Islândia, Noruega, Liechtenstein, Suíça)
  • Aplicação futura prevista: usuários Enterprise, Team e Edu
  • Ainda não há plano de aplicar isso a usuários gratuitos

4. Implicações técnicas e filosóficas

✔ Efeitos esperados

  • Possibilidade de respostas mais alinhadas ao perfil, estilo de escrita e preferências do usuário
  • Evolução para um agente personalizado baseado em conversas de longo prazo

✔ Principais preocupações

  • Falta de transparência: não é possível verificar nem corrigir quais informações foram lembradas
  • Possibilidade de invasão de privacidade: registros armazenados no servidor podem ser usados de forma não intencional

Os históricos de conversa já eram armazenados nos servidores antes, mas esta atualização ganha importância porque, a partir de agora, eles passam a ser usados de fato de forma mais ampla na geração de respostas


5. Resumo geral

Item Conteúdo
Mudança Introdução de um novo recurso de memória que ajusta respostas com base em todo o histórico de conversas
Aplicação Implementação gradual começando por usuários Plus/Pro, excluindo a Europa
Diferença No modelo anterior era possível editar informações; no novo recurso, o processo é totalmente automático e inacessível
Efeito esperado Melhora na qualidade de respostas personalizadas e manutenção do contexto da conversa
Preocupações Falta de controle do usuário e aumento dos riscos de privacidade

6. Encerramento

Essa mudança representa um importante ponto de inflexão na direção da personalização dos LLMs. Vai além de uma simples função de memória e indica a evolução para uma IA no estilo de “assistente pessoal” que aprende e se adapta continuamente. No entanto, a estrutura de memória em caixa-preta também traz junto debates de ética tecnológica sobre privacidade e perda de controle. No fim, a adoção dessa tecnologia dependerá da escolha do usuário, e a transparência e o design responsável das empresas se tornarão ainda mais importantes.

2 comentários

 
gcback 2025-05-19

Fico curioso sobre o efeito disso no consumo de tokens. Se o conteúdo da memória for acumulado antes do contexto de entrada, talvez até haja cache hit, mas sinto falta de uma explicação mais transparente.

 
holywork 2025-05-19

Acabei de tentar pedir para imprimir a memória exatamente como ela é, e parece que primeiro vem listada a memória existente (lembranças por solicitação do usuário) como Model Set Context, depois aparecem, organizadas por situação, descrições das características de resposta preferidas pelo usuário como Assistance Response Preference, e por fim são anexados resumos de conteúdos dignos de nota de conversas passadas como Notable Past Conversation Topic Highlights. Parece que, literalmente, não são anexados os tokens de todo o conteúdo de todos os chats.

Abaixo está a explicação do ChatGPT

A memória persistente (Persistent Memory) inclui apenas as informações salvas explicitamente por meio do comando =bio, e somente essas informações continuam sendo lembradas entre sessões.

Por outro lado, preferências de resposta ou resumos de temas de conversa se enquadram em Ephemeral Context e são gerados automaticamente com base nas interações recentes. O contexto efêmero só pode ser visto durante a sessão e, quando a sessão termina, não é salvo nem consultado depois.