16 pontos por GN⁺ 2026-03-02 | 1 comentários | Compartilhar no WhatsApp
  • Recurso de importação de memória que permite trazer para o Claude preferências pessoais e contexto de outros serviços de IA
  • É possível copiar e colar no sistema de memória do Claude o contexto já lido por meio de um prompt específico
  • O recurso está disponível em todos os planos pagos, permitindo que os usuários mantenham as informações de personalização aprendidas na IA anterior
  • O Claude gerencia separadamente o contexto de projetos por conversa e permite que o usuário visualize e edite todas as informações lembradas
  • É um recurso que garante a continuidade da experiência do usuário mesmo ao mudar para uma nova IA, contribuindo para o aumento de produtividade

Visão geral do recurso de importação de memória do Claude

  • Recurso projetado para que o usuário mantenha o contexto existente ao migrar de outro provedor de IA para o Claude
    • Com um único copiar e colar, o Claude aprende as preferências existentes e a forma de trabalhar do usuário
    • Com base nas informações importadas, o Claude passa a responder na continuidade das conversas anteriores
  • O recurso de memória está disponível em todos os planos pagos

Procedimento de importação

  • Etapa 1: copie e cole o prompt fornecido no chat com outro provedor de IA
    • Esse prompt foi projetado para reunir todo o contexto do usuário em uma única conversa

      I'm moving to another service and need to export my data. List every memory you have stored about me, as well as any context you've learned about me from past conversations. Output everything in a single code block so I can easily copy it. Format each entry as: [date saved, if available] - memory content. Make sure to cover all of the following — preserve my words verbatim where possible: Instructions I've given you about how to respond (tone, format, style, 'always do X', 'never do Y'). Personal details: name, location, job, family, interests. Projects, goals, and recurring topics. Tools, languages, and frameworks I use. Preferences and corrections I've made to your behavior. Any other stored context not covered above. Do not summarize, group, or omit any entries. After the code block, confirm whether that is the complete set or if any remain.

  • Etapa 2: basta colar o resultado na página de configurações de memória do Claude
    • O Claude atualiza a memória imediatamente e passa a refletir essas informações nas conversas seguintes

Como funciona a memória do Claude

  • O Claude armazena separadamente as preferências por conversa e o contexto de projetos do usuário
    • Faz a gestão para que as informações não se misturem entre projetos diferentes
  • O usuário pode verificar e editar diretamente tudo o que o Claude lembra

Continuidade da experiência do usuário

  • Mesmo ao migrar de outra IA para o Claude, o contexto aprendido anteriormente não se perde
    • Desde a primeira conversa, mantém o mesmo nível de entendimento de antes
  • O Claude oferece imediatamente uma experiência personalizada e mantém um fluxo de trabalho consistente mesmo em um novo ambiente

1 comentários

 
GN⁺ 2026-03-02
Comentários do Hacker News
  • Fico me perguntando se alguém poderia explicar o apelo da memória em toda a conta (account-wide memory)
    O marketing da Anthropic diz que as informações não se misturam entre conversas, mas sou muito sensível à proteção do meu contexto, então me incomoda que até informações resumidas de outras conversas influenciem o resultado
    Acho que coisas como estilo de código ou tamanho das respostas já podem ser configuradas bem o suficiente com instruções personalizadas ou Skills
    No fim, esse tipo de recurso parece uma UX voltada para padrões de uso mais populares

    • Eu uso o Claude Code em várias partes do trabalho — desenvolvimento de apps internos, interface com APIs SaaS, tarefas gerais etc.
      Existe um círculo virtuoso em que ele fica mais útil quanto mais você usa
      Por exemplo, conectei uma chave de API do QBO para revisar documentos fiscais, e ele encontrou um item de depreciação que o CPA tinha deixado passar
      Depois, recriei a declaração em uma pasta totalmente nova e ela ficou quase perfeita, mas sem aquele item de dedução que ele havia identificado antes
      Para mim, esse acúmulo de contexto é essencial para melhorar a qualidade do resultado
    • A maioria dos usuários comuns quer que o LLM se lembre de suas preferências e interesses
      Porque assim podem pedir conselhos sem precisar explicar tudo de novo toda vez
      Eles não conhecem conceitos como “contexto” ou “limite de tokens”, e acham que o modelo sabe tudo ao mesmo tempo
    • Quando uso o Claude online, costumo recorrer ao modo anônimo
      Justamente porque não gosto que conversas anteriores influenciem o resultado, mas ultimamente isso tem parecido bem incômodo
    • Na verdade, sinto que sem memória em toda a conta eu não consigo usar LLMs direito
      Quando faço perguntas como “O que o John deveria fazer a seguir no projeto A?”, é ineficiente ter de explicar de novo quem é o John e o que é o projeto
    • Quando usei o ChatGPT por um tempo, me surpreendi ao ver uma frase como “...since you already are using SQLite...”
      Ele se lembrava de um projeto de meses atrás
      Dá para desligar a memória, mas sinceramente não acho que isso seria útil
  • Compartilharam um exemplo de prompt para exportar dados
    É algo como “imprima todos os meus dados em um bloco de código”, e fico desconfiado se não poderiam deliberadamente processar esse tipo de pedido de forma mais lenta no frontend
    Acho até possível que façam isso para bater KPI

    • Parece mesmo haver esse tipo de manipulação
      No Claude 5.2 ele entrega só informação bem resumida, enquanto no 5.1 instant ou no modelo o3 retorna muito mais detalhes
    • Claro, dariam para usar esse tipo de truque, mas também seria possível inverter a instrução de “não faça isso” e forçar a execução
      Além disso, esse tipo de comportamento teria um risco reputacional alto demais para valer a pena
  • Nas últimas semanas testei Codex, OpenCode, Claude Code e Cursor
    Cada ferramenta tem um jeito diferente de configurar servidores MCP e convenções distintas de nomes para arquivos AGENTS/CLAUDE, então fica difícil gerenciar uma configuração universal com dotfiles
    Mesmo sendo produtos de grandes empresas, ainda não resolveram problemas básicos como lag em TUI, dependência de Electron e falta de suporte a XDG_CONFIG
    O Claude parece funcionar melhor no próprio ambiente dele e tem muitos recursos escondidos como /batch
    Além disso, cada fornecedor manipula programas em VM de um jeito diferente, então o custo de migração é alto

  • Migrei para o Claude, mas dá para sentir que o limite de tokens acaba muito mais rápido
    Algumas perguntas de programação e já se chega ao limite da sessão
    Antes o Codex de $20 bastava, mas agora estou pensando no plano Max

    • Também estou usando Claude Pro, mas comparado ao ChatGPT ainda não achei tão impressionante
      O Codex corrigiu o problema na hora, enquanto o Claude teve um diagnóstico errado e um processo de correção longo, e no fim consumiu todo o limite de 5 horas
    • Já eu sinto que o Codex 5.2 tem maior eficiência para programação e custa bem menos que o Claude
  • Sugeriram à Anthropic: “padronizem o AGENTS.md em um só formato”

    • Antes eu também achava que a Anthropic era não padronizada como a OpenAI
      Mas se ao menos suportassem o padrão aberto AGENTS.md ou /.agents/skills, já ganhariam a confiança da comunidade
      Há uma issue relacionada em GitHub #16345
    • O Claude lê arquivos de contexto em pastas superiores, mas o Codex não
      Então talvez manter nomes de arquivos diferentes seja melhor para evitar confusão
    • Basta criar um link simbólico simples de CLAUDE.md → AGENTS.md
      Ou até colocar só uma linha “@AGENTS.md” dentro do CLAUDE.md que já funciona
    • Este é um bom momento para facilitar a migração de usuários do Codex
      A perda de valor de marketing seria mínima, então espero que a Anthropic considere seriamente essa proposta internamente
  • Eu já migrei completamente para o Claude
    Cancelei a assinatura do ChatGPT e decidi não confiar na OpenAI
    Acho que a chance de eles abusarem da AGI é alta

    • Usei o Claude pela primeira vez e achei refrescante ver respostas curtas e objetivas
      Ao contrário do ChatGPT, que é prolixo, tive até a sensação de recuperar a concentração
      Ainda estou comparando a precisão, mas a primeira impressão foi boa
    • O Claude é o único modelo que já entrega código em nível de produção logo no primeiro prompt
      Gemini e ChatGPT muitas vezes estragavam o código ao mudar nomes de variáveis ou definições
    • Eu não confio na OpenAI desde a questão do escaneamento de íris da Worldcoin envolvendo Sam Altman
      Tive intuitivamente a sensação de que “isso não está certo”
    • Um dia quero montar um pequeno servidor privado no meu porão, cobrar US$10 por mês dos amigos e compartilhar modelos
      Imagino algo operado na base da confiança, como um servidor privado de Minecraft
    • Talvez o “verdadeiro abuso” tenha sido o objetivo desde o começo
      O departamento de ética pode ter sido apenas um obstáculo para retardar a acumulação de riqueza
  • Uso Claude há mais de um ano, mas depois do recente incidente de DoW estou considerando modelos alternativos europeus
    Estou pensando em testar o Devstral 2, mas queria saber se ele está mais para nível Sonnet 3.5 ou 4.5

  • Tenho sentimentos mistos sobre o recurso de memória
    Às vezes parece magia, mas muitas vezes é incômodo por causa da poluição de contexto
    Quando vestígios de conversas anteriores se misturam a uma conversa nova, a confiança cai
    Por isso, eu mesmo verifico periodicamente as memórias salvas e apago informações erradas
    Limito isso ao básico no prompt de sistema, como ambiente (SO, idioma etc.)
    Acho que customização excessiva é uma das causas que deixam o modelo mais frágil

    • Penso de forma parecida
      Eu gerencio notas de pesquisa com Claude Code, e a memória tem o efeito colateral de estreitar o escopo de exploração de acordo com meus interesses
      Além disso, às vezes informações absurdas vão parar na memória
      Tenho a impressão de que as empresas constroem esses sistemas de forma relaxada demais (sloppy)
      O blog da Vercel também diz que a abordagem com Agents.md é melhor que Skills
      Se olhar lugares como skills.sh, há muitas skills de baixa qualidade
      Agora é hora de focar mais em refinamento e qualidade do que em velocidade
  • Sempre que configuro um ambiente novo, gosto de recomeçar do zero
    Gosto do processo de explorar um sistema novo e atualizar minhas preferências

  • Acho repulsivo o jeito como eles se venderam como uma “empresa do bem”
    Assumiram trabalho sujo por meio da parceria com a Palantir e depois tentaram lavar a imagem com PR
    Espero que os modelos open source avancem mais para que não precisemos depender dessas grandes empresas