[Claude transferindo a memória para o plano gratuito](https://x.com/claudeai/status/2028559427167834314) é um verdadeiro marco. Isso confirma que a memória agora é uma superfície central do produto, não um recurso de ponta premium.

Essa parte é uma ótima notícia.

A questão mais difícil é o que “memória” realmente significa, uma vez que você depende dela para trabalhar de verdade. Tenho testado a memória no Claude e no ChatGPT há meses. Dois problemas continuam aparecendo.

## O que a memória realmente armazena

Tanto Claude quanto ChatGPT usam a palavra “memória” de uma forma que leva as pessoas a presumir a retenção total de detalhes significativos nas conversas. A realidade é diferente. O que essas plataformas chamam de memória está mais próximo de um perfil do que de um registro do que você trabalhou.

O que esses sistemas armazenam está mais próximo dos trechos de perfil condensado. Eles observam suas conversas e destilam alguns fatos sobre quem você é e como prefere trabalhar. Claude parece fazer isso melhor. Para cada chat, produz algumas observações, principalmente sobre a sua identidade como profissional, as suas preferências de estilo, como gosta de interagir com a IA. O ChatGPT, pelo menos na minha experiência, tende a salvar esses trechos apenas quando você solicita explicitamente.

![Exportação de memória de Claude mostrando trechos de nível de perfil sem datas](/images/posts/your-ai-remembers-your-vibe-but-not-your-work-claude-memory-export.png)

Esses recursos não capturam detalhes granulares sobre as coisas nas quais você realmente trabalhou.

Se eu tiver uma conversa sobre minha rotina de exercícios, os exercícios que tenho feito, as estatísticas de composição corporal que estou acompanhando, o sistema resumirá que estou “em boa forma”. Não armazenará os dados reais sobre a evolução da minha saúde. Se eu trabalhar em uma análise financeira ou em um conjunto de tarefas de projeto, o sistema poderá notar que me importo com esses domínios. Não reterá os detalhes.

A afirmação ampla de que esses agentes se lembram do “contexto” que você lhes deu é útil, mas limitada. É bom para familiaridade. Isso faz com que as conversas pareçam mais naturais. Ele não oferece nenhuma garantia de que um agente possa responder a perguntas detalhadas sobre trabalhos anteriores ou continuar com segurança de onde você parou.

O resultado é algo como um amigo que esquece os detalhes de tudo o que você falou, mas tem uma vaga noção de quem você é como pessoa. Isso é útil para uma conversa mais tranquila. Não é útil para delegar trabalho contínuo.

## Onde a portabilidade falha

Claude fez uma oferta atraente junto com o lançamento de memória: [importe sua memória de outros serviços](https://claude.com/import-memory). A ideia é simples. Pergunte ao seu antigo assistente o que ele sabe sobre você, copie o resultado e leve-o para Claude.

Como UX, isso é inteligente. Como infraestrutura, ela quebra rapidamente.

Eu testei isso com ChatGPT. A primeira vez que usei o prompt de exportação do Claude em um bate-papo normal, fora do projeto, o ChatGPT respondeu com os trechos de memória que havia salvo. Mas essas eram, em sua maioria, entradas obsoletas, muitas de 2024, e quase nenhuma refletia meu trabalho ou interações recentes deste ano. Não havia sinal de que o sistema tivesse aprendido automaticamente algo novo nas centenas de conversas que tive nos últimos meses.

![Memórias salvas do ChatGPT mostrando entradas obsoletas de nível superficial](/images/posts/your-ai-remembers-your-vibe-but-not-your-work-chatgpt-saved-memories.png)

O contexto de bate-papo cruzado que o ChatGPT claramente possui, onde as informações de um tópico surgem em outro, não apareceu na exportação. Somente as entradas de memória discretas e explicitamente salvas passaram.

Quando tentei exatamente o mesmo prompt de exportação novamente em bate-papos subsequentes fora do projeto, o ChatGPT recusou totalmente. Não produziria a lista de memória uma segunda vez. Portanto, mesmo a exportação parcial que obtive foi um resultado único.

![ChatGPT recusando-se a exportar memória, listando categorias internas como não exportáveis](/images/posts/your-ai-remembers-your-vibe-but-not-your-work-chatgpt-export-denied.png)

Nos chats baseados em projetos, a situação era ainda pior. Quando usei o mesmo prompt dentro de um projeto ChatGPT, ele se recusou a exportar memória desde o início. Em vez disso, ele me redirecionou para o recurso de exportação de conversas em massa. Esse recurso fornece um despejo de dados brutos, não um contexto estruturado. Você obtém arquivos para baixar e descobrir por conta própria.

![Recusa do ChatGPT: sem despejo de memórias ou contexto interno](/images/posts/your-ai-remembers-your-vibe-but-not-your-work-chatgpt-refusal-no-dump.png) ![ChatGPT o que você pode exportar: dados da conta e distinção de internos resumos](/images/posts/your-ai-remembers-your-vibe-but-not-your-work-chatgpt-export-what-you-can.png)

Portanto, a história da portabilidade tem uma lacuna nas duas pontas. A plataforma de origem controla o que divulgará e onde. A plataforma de destino só pode ingerir o que realmente chega. Se as exportações são parciais, obsoletas e dependentes da superfície, a “portabilidade” é uma transferência de melhor esforço e não uma migração estatal fiável.

## Três categorias escondidas sob uma palavra

Acho que o mercado está colapsando pelo menos três coisas distintas sob a palavra “memória”.

A primeira é a memória de conveniência. Trechos de perfil que suavizam as interações, evitam repetições e ajudam na personalização. Isso faz com que os chatbots pareçam menos apátridas. Isso é o que Claude e ChatGPT oferecem hoje, e é o que descrevem as duas primeiras seções deste post.

A segunda é a memória aumentada por recuperação. Algumas plataformas já fazem isso até certo ponto, tratando transcrições de conversas anteriores como arquivos e pesquisando-as sob demanda. De forma mais ampla, o agente usa pesquisa de agente ou pesquisa baseada em incorporação em seus arquivos, e-mails e ferramentas para revelar o contexto quando você solicitar. Pode responder "o que decidimos nos últimos três e-mails?" ou "encontre algo sobre o apartamento em Barcelona". Isso é um avanço em relação aos trechos de perfil. Mas [a recuperação agente infere; não garante](/posts/agentic-search-and-the-truth-layer). Não há estado canônico persistente, nem proveniência, nem consistência entre sessões. A mesma pergunta pode gerar uma resposta diferente na próxima vez. É um meio-termo: melhor do que a memória de conveniência para o trabalho real, e não um substituto para o estado durável.

A terceira é a memória operacional durável. É um estado digitado, determinístico e auditável que pode sobreviver a mudanças de ferramentas, mudanças de plataforma e limites de fluxo de trabalho. É o que você precisa quando os agentes começam a lidar com tarefas, contatos, compromissos e transações recorrentes em seu nome.

Todos os três são importantes. Eles não são intercambiáveis, e resumi-los em uma palavra cria um [problema de verdade](/posts/agent-memory-truth-problem) assim que você depende de qualquer um deles para trabalhar de verdade.

A memória de conveniência vence a experiência de bate-papo. A recuperação vence perguntas exploratórias e pontuais. A memória durável vence a camada de estado abaixo.

## Como Neotoma lida com isso de maneira diferente

Estou construindo Neotoma para a terceira categoria. Já escrevi antes sobre [construir uma camada de verdade para memória de agente persistente](/posts/truth-layer-agent-memory).

A principal diferença de design é que o Neotoma trata a memória como uma infraestrutura de dados explícita de propriedade do usuário, em vez de um subproduto opaco das interações de bate-papo.

**Entidades em vez de snippets.** Cada parte do contexto no Neotoma é uma entidade estruturada com um tipo, propriedades e relacionamentos com outras entidades. Um contato é um contato. Uma tarefa é uma tarefa. Um registro financeiro é um registro financeiro. Eles não são resumidos em um pacote de resumos em linguagem natural sobre "o que interessa ao usuário". Quando um agente armazena algo, ele armazena um registro digitado. Quando um agente recupera algo, ele recebe de volta um resultado determinístico, não uma reconstrução probabilística.

**Procedência de cada fato.** Cada observação no Neotoma rastreia de onde veio e quando foi registrada. Se dois agentes contribuem com informações sobre a mesma entidade, cada contribuição é rastreável separadamente. Não existe caixa preta. Você pode auditar qualquer fato até sua fonte.

**Acesso entre ferramentas por meio do MCP.** O Neotoma expõe seus dados por meio do Model Context Protocol, o que significa que qualquer agente compatível com MCP pode ler e gravar na mesma camada de verdade. Eu uso isso diariamente. Os mesmos dados que preencho através do Cursor estão disponíveis para Claude, para ChatGPT e para qualquer ferramenta futura que fale MCP. Não há etapa de exportação. Não há copiar e colar. Os dados estão lá, acessíveis e consistentes, independentemente do agente com quem eu esteja trabalhando.

**Sem controle de plataforma.** No modelo ChatGPT, a memória reside dentro da plataforma e a plataforma decide o que divulgar, onde e para quem. No Neotoma, o usuário possui o armazenamento de dados. Nenhuma plataforma pode recusar-se a exportá-lo porque nunca esteve preso a uma.

**Incremental e combinável.** Os agentes podem adicionar observações a entidades existentes ao longo do tempo. Se um agente me ajudar com os impostos este ano, outro agente em uma plataforma diferente no próximo ano poderá retirar os mesmos registros estruturados. O conhecimento aumenta em vez de ser redefinido.

Isso cria uma separação limpa. As interfaces de bate-papo podem continuar otimizando a qualidade da interação, a personalidade e a experiência do usuário. A camada de verdade abaixo otimiza confiabilidade, integridade e controle. Quando um modelo ou interface muda, o estado subjacente não acompanha ele.

## Onde eu acho que isso vai

No curto prazo, a maioria dos usuários continuará usando a memória da plataforma. Eles deveriam. Está melhorando e faz o bate-papo ficar melhor.

Paralelamente, qualquer pessoa que crie fluxos de trabalho sérios para agentes começará a se deparar com as mesmas lacunas que encontrei: recall parcial, exportações obsoletas, comportamento dependente de superfície, contexto alucinado. Esses problemas ficam mais caros à medida que você delega mais responsabilidades. Escrevi separadamente sobre as [seis tendências estruturais](/posts/six-agentic-trends-betting-on) que tornam essa lacuna ainda maior ao longo do tempo: os agentes tornam-se estáveis, os erros tornam-se precificados, as plataformas permanecem opacas, as ferramentas permanecem fragmentadas.

O padrão que espero é que as camadas da verdade apareçam abaixo da camada de bate-papo. Gradualmente, no início, depois como uma infra-estrutura óbvia.

Claude libertando a memória empurra toda a categoria para frente. Meus testes apenas esclarecem onde está o limite. A memória da plataforma melhora a qualidade da conversa. Ele ainda não fornece um substrato confiável para o trabalho de agentes em contextos cruzados e de longo horizonte.

É para essa lacuna que estou construindo o [Neotoma](/posts/neotoma-developer-release) preencher. A versão do desenvolvedor já está disponível em [neotoma.io](https://neotoma.io), e estou dando as boas-vindas aos testadores.