- Recurso de importação de memória que permite trazer para o Claude preferências pessoais e contexto de outros serviços de IA
- É possível copiar e colar no sistema de memória do Claude o contexto já lido por meio de um prompt específico
- O recurso está disponível em todos os planos pagos, permitindo que os usuários mantenham as informações de personalização aprendidas na IA anterior
- O Claude gerencia separadamente o contexto de projetos por conversa e permite que o usuário visualize e edite todas as informações lembradas
- É um recurso que garante a continuidade da experiência do usuário mesmo ao mudar para uma nova IA, contribuindo para o aumento de produtividade
Visão geral do recurso de importação de memória do Claude
- Recurso projetado para que o usuário mantenha o contexto existente ao migrar de outro provedor de IA para o Claude
- Com um único copiar e colar, o Claude aprende as preferências existentes e a forma de trabalhar do usuário
- Com base nas informações importadas, o Claude passa a responder na continuidade das conversas anteriores
- O recurso de memória está disponível em todos os planos pagos
Procedimento de importação
- Etapa 1: copie e cole o prompt fornecido no chat com outro provedor de IA
- Esse prompt foi projetado para reunir todo o contexto do usuário em uma única conversa
I'm moving to another service and need to export my data. List every memory you have stored about me, as well as any context you've learned about me from past conversations. Output everything in a single code block so I can easily copy it. Format each entry as: [date saved, if available] - memory content. Make sure to cover all of the following — preserve my words verbatim where possible: Instructions I've given you about how to respond (tone, format, style, 'always do X', 'never do Y'). Personal details: name, location, job, family, interests. Projects, goals, and recurring topics. Tools, languages, and frameworks I use. Preferences and corrections I've made to your behavior. Any other stored context not covered above. Do not summarize, group, or omit any entries. After the code block, confirm whether that is the complete set or if any remain.
- Esse prompt foi projetado para reunir todo o contexto do usuário em uma única conversa
- Etapa 2: basta colar o resultado na página de configurações de memória do Claude
- O Claude atualiza a memória imediatamente e passa a refletir essas informações nas conversas seguintes
Como funciona a memória do Claude
- O Claude armazena separadamente as preferências por conversa e o contexto de projetos do usuário
- Faz a gestão para que as informações não se misturem entre projetos diferentes
- O usuário pode verificar e editar diretamente tudo o que o Claude lembra
Continuidade da experiência do usuário
- Mesmo ao migrar de outra IA para o Claude, o contexto aprendido anteriormente não se perde
- Desde a primeira conversa, mantém o mesmo nível de entendimento de antes
- O Claude oferece imediatamente uma experiência personalizada e mantém um fluxo de trabalho consistente mesmo em um novo ambiente
1 comentários
Comentários do Hacker News
Fico me perguntando se alguém poderia explicar o apelo da memória em toda a conta (account-wide memory)
O marketing da Anthropic diz que as informações não se misturam entre conversas, mas sou muito sensível à proteção do meu contexto, então me incomoda que até informações resumidas de outras conversas influenciem o resultado
Acho que coisas como estilo de código ou tamanho das respostas já podem ser configuradas bem o suficiente com instruções personalizadas ou Skills
No fim, esse tipo de recurso parece uma UX voltada para padrões de uso mais populares
Existe um círculo virtuoso em que ele fica mais útil quanto mais você usa
Por exemplo, conectei uma chave de API do QBO para revisar documentos fiscais, e ele encontrou um item de depreciação que o CPA tinha deixado passar
Depois, recriei a declaração em uma pasta totalmente nova e ela ficou quase perfeita, mas sem aquele item de dedução que ele havia identificado antes
Para mim, esse acúmulo de contexto é essencial para melhorar a qualidade do resultado
Porque assim podem pedir conselhos sem precisar explicar tudo de novo toda vez
Eles não conhecem conceitos como “contexto” ou “limite de tokens”, e acham que o modelo sabe tudo ao mesmo tempo
Justamente porque não gosto que conversas anteriores influenciem o resultado, mas ultimamente isso tem parecido bem incômodo
Quando faço perguntas como “O que o John deveria fazer a seguir no projeto A?”, é ineficiente ter de explicar de novo quem é o John e o que é o projeto
Ele se lembrava de um projeto de meses atrás
Dá para desligar a memória, mas sinceramente não acho que isso seria útil
Compartilharam um exemplo de prompt para exportar dados
É algo como “imprima todos os meus dados em um bloco de código”, e fico desconfiado se não poderiam deliberadamente processar esse tipo de pedido de forma mais lenta no frontend
Acho até possível que façam isso para bater KPI
No Claude 5.2 ele entrega só informação bem resumida, enquanto no 5.1 instant ou no modelo o3 retorna muito mais detalhes
Além disso, esse tipo de comportamento teria um risco reputacional alto demais para valer a pena
Nas últimas semanas testei Codex, OpenCode, Claude Code e Cursor
Cada ferramenta tem um jeito diferente de configurar servidores MCP e convenções distintas de nomes para arquivos AGENTS/CLAUDE, então fica difícil gerenciar uma configuração universal com dotfiles
Mesmo sendo produtos de grandes empresas, ainda não resolveram problemas básicos como lag em TUI, dependência de Electron e falta de suporte a XDG_CONFIG
O Claude parece funcionar melhor no próprio ambiente dele e tem muitos recursos escondidos como
/batchAlém disso, cada fornecedor manipula programas em VM de um jeito diferente, então o custo de migração é alto
Migrei para o Claude, mas dá para sentir que o limite de tokens acaba muito mais rápido
Algumas perguntas de programação e já se chega ao limite da sessão
Antes o Codex de $20 bastava, mas agora estou pensando no plano Max
O Codex corrigiu o problema na hora, enquanto o Claude teve um diagnóstico errado e um processo de correção longo, e no fim consumiu todo o limite de 5 horas
Sugeriram à Anthropic: “padronizem o AGENTS.md em um só formato”
Mas se ao menos suportassem o padrão aberto AGENTS.md ou
/.agents/skills, já ganhariam a confiança da comunidadeHá uma issue relacionada em GitHub #16345
Então talvez manter nomes de arquivos diferentes seja melhor para evitar confusão
Ou até colocar só uma linha “@AGENTS.md” dentro do CLAUDE.md que já funciona
A perda de valor de marketing seria mínima, então espero que a Anthropic considere seriamente essa proposta internamente
Eu já migrei completamente para o Claude
Cancelei a assinatura do ChatGPT e decidi não confiar na OpenAI
Acho que a chance de eles abusarem da AGI é alta
Ao contrário do ChatGPT, que é prolixo, tive até a sensação de recuperar a concentração
Ainda estou comparando a precisão, mas a primeira impressão foi boa
Gemini e ChatGPT muitas vezes estragavam o código ao mudar nomes de variáveis ou definições
Tive intuitivamente a sensação de que “isso não está certo”
Imagino algo operado na base da confiança, como um servidor privado de Minecraft
O departamento de ética pode ter sido apenas um obstáculo para retardar a acumulação de riqueza
Uso Claude há mais de um ano, mas depois do recente incidente de DoW estou considerando modelos alternativos europeus
Estou pensando em testar o Devstral 2, mas queria saber se ele está mais para nível Sonnet 3.5 ou 4.5
Tenho sentimentos mistos sobre o recurso de memória
Às vezes parece magia, mas muitas vezes é incômodo por causa da poluição de contexto
Quando vestígios de conversas anteriores se misturam a uma conversa nova, a confiança cai
Por isso, eu mesmo verifico periodicamente as memórias salvas e apago informações erradas
Limito isso ao básico no prompt de sistema, como ambiente (SO, idioma etc.)
Acho que customização excessiva é uma das causas que deixam o modelo mais frágil
Eu gerencio notas de pesquisa com Claude Code, e a memória tem o efeito colateral de estreitar o escopo de exploração de acordo com meus interesses
Além disso, às vezes informações absurdas vão parar na memória
Tenho a impressão de que as empresas constroem esses sistemas de forma relaxada demais (sloppy)
O blog da Vercel também diz que a abordagem com Agents.md é melhor que Skills
Se olhar lugares como skills.sh, há muitas skills de baixa qualidade
Agora é hora de focar mais em refinamento e qualidade do que em velocidade
Sempre que configuro um ambiente novo, gosto de recomeçar do zero
Gosto do processo de explorar um sistema novo e atualizar minhas preferências
Acho repulsivo o jeito como eles se venderam como uma “empresa do bem”
Assumiram trabalho sujo por meio da parceria com a Palantir e depois tentaram lavar a imagem com PR
Espero que os modelos open source avancem mais para que não precisemos depender dessas grandes empresas