[Claude 将内存转移到免费计划](https://x.com/claudeai/status/2028559427167834314) 是一个真正的里程碑。它证实内存现在是核心产品表面，而不是高级边缘功能。

这部分是个好消息。

更难的问题是，一旦你依赖它进行实际工作，“记忆”实际上意味着什么。几个月来我一直在 Claude 和 ChatGPT 上测试内存。有两个问题不断出现。

## 内存实际存储什么

Claude 和 ChatGPT 都使用“记忆”这个词，让人们假设在对话中完全保留了有意义的细节。现实是不同的。这些平台所说的记忆更接近于个人资料，而不是你所做工作的记录。

这些系统存储的内容更接近于压缩的个人资料片段。他们观察你的谈话并提炼出一些关于你是谁以及你喜欢如何工作的事实。克劳德似乎在这方面做得最好。对于每一次聊天，它都会产生一些观察结果，主要是关于你作为专业人士的身份、你的风格偏好、你喜欢如何与人工智能互动。 ChatGPT，至少根据我的经验，倾向于仅在您明确提示时才保存这些片段。

![克劳德内存导出显示没有日期的个人资料级片段](/images/posts/your-ai-remembers-your-vibe-but-not-your-work-claude-memory-export.png)

这些功能无法捕获您实际从事的工作的详细信息。

如果我谈论我的健身习惯、我一直在做的锻炼、我一直在跟踪的身体成分统计数据，系统会总结出我“热衷于健身”。它不会存储有关我的健康状况演变的实际数据。如果我完成财务分析或一组项目任务，系统可能会注意到我关心这些领域。它不会保留细节。

这些特工记住你给他们的“背景”这一宽泛的说法是有帮助的，但很狭隘。这对于熟悉来说是有好处的。它使对话感觉更加自然。它不能保证代理可以回答有关过去工作的详细问题或可靠地从您上次停下的地方继续。

结果就像一个朋友忘记了你所谈论的一切细节，但对你这个人有一个模糊的认识。这对于更顺畅的对话很有用。它对于委派正在进行的工作没有用。

## 可移植性出现问题的地方

Claude 在内存发布的同时提出了一个引人注目的提议：[从其他服务导入您的内存](https://claude.com/import-memory)。这个想法很简单。询问你的老助手它对你了解多少，复制输出并将其带入克劳德。

作为用户体验，这是明智的。作为基础设施，它的破坏速度很快。

我用 ChatGPT 对此进行了测试。当我第一次在常规的非项目聊天中使用 Claude 导出提示时，ChatGPT 确实用它保存的内存片段进行了响应。但这些条目大多是陈旧的条目，其中许多是 2024 年的，几乎没有一个条目反映了我今年最近的工作或互动。没有迹象表明系统自动从我过去几个月的数百次对话中学到了任何新东西。

![ChatGPT 保存的记忆显示陈旧的、表面级别的条目](/images/posts/your-ai-remembers-your-vibe-but-not-your-work-chatgpt-saved-memories.png)

ChatGPT 明显具有的跨聊天上下文（来自一个线程的信息在另一个线程中显示）根本没有出现在导出中。只有离散的、明确保存的内存条目才会通过。

当我在后续的非项目聊天中再次尝试完全相同的导出提示时，ChatGPT 完全拒绝。它不会再次生成内存列表。所以即使我得到的部分导出也是一次性的结果。

![ChatGPT 拒绝导出内存，将内部类别列为不可导出](/images/posts/your-ai-remembers-your-vibe-but-not-your-work-chatgpt-export-denied.png)

在基于项目的聊天中，情况更糟。当我在 ChatGPT 项目中使用相同的提示时，它从一开始就拒绝导出内存。相反，它将我重定向到批量对话导出功能。该功能为您提供原始数据转储，而不是结构化上下文。您可以下载文件并自行解决。

![ChatGPT 拒绝：不转储内存或内部上下文](/images/posts/your-ai-remembers-your-vibe-but-not-your-work-chatgpt-refusal-no-dump.png) ![ChatGPT 您可以导出什么：帐户数据以及与内部的区别摘要](/images/posts/your-ai-remembers-your-vibe-but-not-your-work-chatgpt-export-what-you-can.png)

因此，可移植性的故事两端都有差距。源平台控制其披露内容和地点。目标平台只能摄取实际通过的内容。如果出口是部分的、陈旧的和依赖地面的，那么“可移植性”就是尽力转移，而不是可靠的状态迁移。

## 一个词下隐藏三个类别

我认为市场在“记忆”这个词下至少正在崩溃三个不同的东西。

首先是方便记忆。个人资料片段可平滑交互、避免重复并有助于个性化。它让聊天机器人感觉不那么无状态。这就是 Claude 和 ChatGPT 今天发布的内容，也是本文前两节所描述的内容。

第二个是检索增强记忆。一些平台已经在某种程度上做到了这一点，将过去的对话记录视为文件并按需搜索。更广泛地说，代理对您的文件、邮件和工具使用代理搜索或基于嵌入的搜索，以便在您需要时显示上下文。它可以回答“我们在最近三封电子邮件中决定了什么？”或“查找有关巴塞罗那公寓的任何信息。”这是个人资料片段的一个进步。但是[代理检索推断；它不保证](/posts/agentic-search-and-the-truth-layer)。没有持久的规范状态，没有出处，没有跨会话一致性。同样的问题下次可能会得到不同的答案。它是一个中间立场：比实际工作的便利内存更好，而不是持久状态的替代品。

第三是持久的操作内存。它是类型化的、确定性的、可审计的状态，可以在工具更改、平台切换和工作流程边界中幸存下来。当代理开始代表您处理重复任务、联系人、承诺和交易时，这就是您所需要的。

这三者都很重要。它们不可互换，一旦您依赖其中任何一个进行实际工作，将它们折叠成一个单词就会产生[真相问题](/posts/agent-memory-truth-problem)。

便捷的记忆赢得了聊天体验。检索赢得探索性、一次性的问题。持久内存赢得了下面的状态层。

## Neotoma 如何以不同的方式处理这个问题

我正在为第三类构建 Neotoma。我之前写过关于[为持久代理内存构建真相层](/posts/truth-layer-agent-memory)。

核心设计差异在于 Neotoma 将内存视为显式的、用户拥有的数据基础设施，而不是聊天交互的不透明副产品。

**实体而不是片段。** Neotoma 中的每个上下文都是一个结构化实体，具有类型、属性以及与其他实体的关系。联系人就是联系人。任务就是任务。财务记录就是财务记录。它们不会被压缩成一堆关于“用户关心什么”的自然语言摘要。当代理存储某些内容时，它会存储键入的记录。当代理检索某些内容时，它会返回确定性结果，而不是概率重建。

**每一个事实都有出处。** Neotoma 中的每一个观察结果都会追踪它的来源和记录时间。如果两个代理提供有关同一实体的信息，则每个贡献都是可单独追踪的。没有黑匣子。您可以审核任何事实，追溯到其来源。

**通过 MCP 进行跨工具访问。** Neotoma 通过模型上下文协议公开其数据，这意味着任何 MCP 兼容的代理都可以读取和写入同一真相层。我每天都用这个。我通过 Cursor 填充的相同数据可供 Claude、ChatGPT 以及任何使用 MCP 的未来工具使用。没有导出步骤。没有复制粘贴。无论我与哪个代理合作，数据就在那里，可访问且一致。

**没有平台门控。** 在 ChatGPT 模型中，内存存在于平台内部，平台决定披露什么、在哪里以及向谁披露。在 Neotoma 中，用户拥有数据存储。没有平台可以拒绝导出它，因为它从未被锁定。

**增量且可组合。** 代理可以随着时间的推移向现有实体添加观察结果。如果今年一位代理人帮助我报税，明年不同平台上的另一位代理人就可以从相同的结构化记录中获取信息。知识复合而不是重置。

这会产生干净的分离。聊天界面可以不断优化交互质量、个性和用户体验。下面的真相层针对可靠性、完整性和控制进行了优化。当一个模型或接口发生变化时，底层状态不会随之变化。

## 我认为这会发生什么

短期内，大多数用户将继续使用平台内存。他们应该。它正在改进，并且让聊天感觉更好。

与此同时，任何构建认真的代理工作流程的人都会开始遇到与我遇到的相同的差距：部分召回、过时的导出、依赖于表面的行为、幻觉的上下文。当您委派更多责任时，这些问题会变得更加昂贵。我曾单独撰写过有关[六种结构趋势](/posts/six-agentic-trends-betting-on)的文章，随着时间的推移，这些趋势使这一差距越来越大：代理变得有状态、错误变得定价、平台保持不透明、工具保持碎片化。

我期望的模式是真相层出现在聊天层下方。一开始是逐渐的，然后是明显的基础设施。

克劳德释放内存推动了整个类别的发展。我的测试只是澄清了边界在哪里。平台内存提高了对话质量。它尚未为跨环境、长期代理工作提供可靠的基础。

我正在构建 [Neotoma](/posts/neotoma-developer-release) 来填补这个空白。开发者版本现已在 [neotoma.io](https://neotoma.io) 上发布，我积极欢迎测试人员。