现在参与人工智能的每个人都在或隐或显地试图预测事情的发展方向以及这些变化将如何重塑我们的生活和工作。猜测数量巨大，而且其中很多都是相互矛盾的。这是不可避免的。没有人能够自信地知道未来几年会发生什么。空间发展太快，技术之间的相互作用太复杂，二阶效应以难以提前建模的方式占主导地位。

不过，如果您在这个领域运营，特别是如果您正在使用人工智能或为人工智能构建某些东西，那么保持不可知论是不够的。你必须选择一套关于世界可能如何演变并围绕它们连贯构建的核心论文，知道其中一些会是错误的，而另一些会比预期更重要。这些论文不是关于精确预测，而是更多关于识别似乎不太可能逆转的结构性压力。

以下是我目前操作的核心假设。它们并不是关于必然性的主张，也不意味着涵盖所有可能的未来。这些趋势，即使是部分持续下去，也会影响我对人工智能系统的使用方式、摩擦会在哪里积累，以及什么样的基础设施将变得必要。我的工作（[Neotoma](/posts/truth-layer-agent-memory)，一个真相层）最好理解为对这些假设的回应。这不是它们的原因，但它是建立在对它们所暗示的世界的预期之上的。

## 1. 代理人将成为有状态的经济参与者

在接下来的两年里，代理可能会超越辅助性、以提示为中心的交互，并成为有意义的有状态的参与者。不需要一般智力方面的突破。更便宜的推理、更强大的工具 API 以及对无人值守运行的代理更广泛的容忍度就足够了。

社会转变是真实的。我们习惯于在我们采取行动之前什么都不做的工具。当代理人坚持目标、相互协调并随着时间的推移采取不可逆转的行动时，谁负责的问题就变得更难回答。更多的工作被委托给非人类参与者； “我做到了这一点”和“我的经纪人做到了这一点”之间的[界限](/posts/we-are-all-centaurs-now)变得软化了。围绕信任、责任和依赖的规范必须适应。技术使变革成为可能；社会必须决定如何忍受它。

为什么会出现这种趋势？维持代理生存的边际成本比重建环境的成本下降得更快。随着推理变得越来越便宜并且编排变得成熟，保存代理的状态比从头开始重建它更有效。工具 API 越来越多地假定连续性：凭证、缓存、中间工件。坚持不懈比无国籍更能得到回报。

在那个世界里，记忆不再是一个便利的功能。它成为系统状态的一部分，类似于数据库而不是聊天日志。当该状态适当且值得信赖时，新事物就可以大规模实现：跨越数天或数周的长期计划、跨多个代理和工具的协调，以及只有当状态可以信任并随着时间的推移而延长时才可行的委派工作。

Neotoma 就是为此而构建的。它将内存视为显式系统状态：确定性图中的类型化实体、事件和关系，而不是提示残留或嵌入相似性。代理的历史记录可以作为系统本身的一部分进行重播、检查和推理。

明年值得关注的事情：
1. 代理框架将长时间运行、后台或可恢复执行作为核心功能。
2. 团队将代理状态损坏或漂移作为一个独特的错误类别进行讨论，而不是重新启动代理作为修复。
3. 产品界面将代理历史记录公开为可检查的而非短暂的。
4. 运行多个代理的团队需要实体和决策的单一事实来源。

## 2. 代理错误将在经济上变得明显

随着人工智能输出越来越多地直接流入计费、合规性、客户可交付成果和自动化工作流程，错误的成本可能会发生变化。目前普遍存在的不便已成为明显的经济影响。

当错误开始出现在事后分析、合同和法庭文件中时，社会就会更清楚地了解谁承担了成本以及谁受到了指责。组织将面临压力，需要证明决策是如何做出的以及系统当时知道什么。这种压力将波及职业规范、保险和监管。个人和小团队可能会遵守最初为具有审计跟踪的大型机构设计的标准。好处是更多的责任感和更少的无声失败。缺点是“可解释”和“可审计”的标准可能会比许多人准备的更快。

这种趋势的结构性原因可能是人工智能正在向决策边缘靠拢，而不仅仅是咨询层。随着人工智能输出嵌入下游触发支付、承诺或外部通信的系统中，错误会继承这些系统的成本结构。一旦失败传播为不可逆转的行动，组织就不能继续将其视为“模型怪癖”。

如今，错误往往可以通过重生或及时调整而被忽视。明天，同样的错误将浪费金钱、损害声誉或造成法律风险。

当错误被定价时，组织就不再询问输出是否有帮助。他们开始询问这些输出是如何产生的、它们依赖什么信息以及该过程是否可以重播或审计。

推论，对近似或模糊记忆的容忍度会降低。当伤害明显时，衡量“足够好”的标准首先上升，然后该标准就会向外漂移。一旦错误代价高昂，可以纠正和追踪的记忆就会成为基础设施，而不是便利。

Neotoma 通过在内存层强制执行起源来适应这种转变。事实与来源归属、时间戳和摄取事件一起存储。更正是附加的而不是破坏性的，允许团队准确地重建代理在决策时所知道的内容，而不是根据部分日志进行猜测。

明年值得关注的事情：
1. 事后分析、客户纠纷或法律背景下出现的与人工智能相关的故障。
2. 团队明确询问“特工当时知道什么？”错误之后。
3. 可追溯性或审计要求被追溯添加到人工智能工作流程中。
4、人工智能记忆错误引发的公共事件；事后分析中，语言从“幻觉”转变为“系统故障”。
5. 团队要求“撤销这一事实”或“恢复代理所认为的内容”而不完全重置。
6.“这个系统相信什么？它是如何演变的？”框架为对一致图的查询而不是 RAG 调用。

## 3. 审计和合规性将转向低端市场

一个相关的趋势是：证明工作是如何产生的以及系统知道什么的压力将不仅仅局限于大型企业。每当错误带来实际成本（经济、法律或声誉）时，对辩护和记录保存的需求就会随之而来。随着人工智能融入专业工作，顾问、机构、受监管的自由职业者和小型人工智能原生团队将面临同样的期望。

结构性原因是责任扩散。随着人工智能的使用变得常态化，责任并没有消失。它蔓延开来。客户、保险公司和监管机构通过寻求补偿控制来应对。审计压力转移到低端市场并不是因为小团队想要它，而是因为风险伴随着使用。

一旦关于作品如何产生的问题成为例行公事，没有出处的记忆就变成了一种负担，而不是一种便利。结构化时间表、实体级召回和来源归因开始充当防御基础设施。

Neotoma 与这种转变相一致，将记忆视为可以及时重建的东西，而不是回顾性推断的东西。实体解析、时间排序和来源不是附加组件。它们是模型的核心。

明年值得关注的事情：
1. 合同、工作说明书或专业指南中出现的人工智能使用披露。
2. 客户或保险公司要求记录人工智能辅助决策。
3.个人或小团队主动防御性存储AI交互记录。
4. 明确要求某些人工智能用途的记录保存或可解释性的法规。

## 4. 平台内存将保持不透明

大型人工智能平台可能会继续提供有用但基本上不透明的内存功能。他们的激励措施有利于参与、保留和模型优化，而不是用户控制的来源或正确性的保证。

社会影响是有能力承担医疗费用的人和无力承担医疗费用的人之间的分歧。需要强有力的保证（审计、正确性、可移植性）的人和组织要么花钱购买替代品，要么建立自己的替代品，要么接受风险。其他人都将依赖平台记忆并忍受信任差距。这种鸿沟可能会加剧现有的不平等。资源充足的人获得透明、便携的内存；其他人都可以通过不透明的条款获得便利。随着时间的推移，关于“我的数据”和“我的历史”含义的规范可能会因环境和您是谁而有所不同。公民和专业期望（例如，您可以展示您的作品或导出您的记录）可能仅适用于某些人。

这种现象持续存在的结构性原因是[激励错位](/posts/building-structural-barriers)。平台针对数百万用户的总体结果进行优化，而不是针对任何单个工作流程所需的正确性保证。公开内存语义、更正规则或重放会限制迭代速度并增加责任。不透明并非偶然。它具有保护作用。

记忆力可能会提高，但检查、导出、重播或正式推理仍然很困难，尤其是跨工具。更正通常是无声的、隐含的或特定于模型的。

这造成了越来越大的信任差距。用户可能会为了方便而依赖平台内存，同时在后果很重要的情况下不信任它。

数据主权增加了一个单独的压力：企业和个人越来越坚持将代理内存保留在他们的环境中，无论是在本地、在租户中还是在他们的控制之下，而不是在供应商的云中。

Neotoma 就是为了弥补这一差距而设计的。其本地、可检查、用户控制的设计是正确性和出处很重要的工作流程的替代方案。您拥有数据和语义；您可以导出、更正和推理系统所知道的内容。

明年值得关注的事情：
1. 内存功能可以提高召回率，但仍处于未记录或不可导出的状态。
2. 用户询问系统实际上知道什么——例如系统相信、记住和推断的全面视图，而不仅仅是原始聊天或导出——但没有得到明确的答案。
3. 解决方法（例如导出、第三方同步、手动复制）增长而不是缩小。
4. 指定代理内存必须保留在本地或用户租户中的 RFP 或要求。

## 5. 工具碎片将持续存在

尽管关于整合到单一人工智能平台或工作空间的说法反复出现，但知识工作可能仍然是碎片化的。专业人员已经跨多个模型、编辑器、副驾驶、文档系统和代理框架进行操作。

结构性原因是人工智能工具是补充，而不是替代。每个都针对工作流程的不同部分进行优化：构思、执行、编码、检索、沟通。边际改进不会使堆栈崩溃。较低的转换成本和快速的模型迭代进一步阻碍了整合。

随着工具蔓延的增加，核心问题从界面碎片转向状态碎片。上下文同时存在于太多地方，没有一个表面可以真正拥有它。

Neotoma 处于这种分裂之下，而不是试图解决它。通过通过协议接口而不是单个 UI 公开内存，它允许多个工具和代理读取和写入相同的底层状态，而无需强制融合到单个工作流程或供应商上。

明年值得关注的事情：
1. 专业人员在任务中切换模型或工具，而没有干净地迁移上下文。
2. 反复抱怨工具之间“失去上下文”。
3. 团队对明确跨越多个人工智能产品的工作流程进行标准化。

## 6. 代理使用将按计量

代理执行也可能越来越受到成本的限制。结构原因很简单：计算正在成为一个可见的项目。不需要进行彻底的经济重组。

随着人工智能支出的增长，组织引入了预算、归因和优化。一旦成本可见，计量自然就会随之而来。

当使用被定价时，低效率和漂移就不再是抽象的问题。重新计算上下文、记错之前的决定或重复工作都会成为明显的浪费。

Neotoma 的确定性记忆模型在这里变得很重要，因为它将持久记忆与瞬态上下文分开。通过启用重播而不是再生，它将内存视为优化表面而不是推理的副作用。

明年值得关注的事情：
1. 团队跟踪每个任务或工作流程的代理或模型使用成本。
2. 具有预算意识的代理根据剩余支出改变行为。
3.优化工作的重点是减少冗余推理而不是改进提示。

## 这些趋势如何影响关键人群

这些趋势充当了不同受影响人群的激活条件。 Neotoma 并不是通过说服而变得重要的。当现实消除替代方案时，这一点就变得很重要。

**人工智能原生个人操作员和高背景知识工作者**是第一批：创始人、顾问、研究人员和独立建设者，在思维和执行方面深入使用人工智能。采用受到有状态代理、经济上可见的错误以及对不透明平台内存的不满的限制。一旦输出对外部（对客户、合作者或收入）很重要，就无法回答“系统在生成时知道什么？”变得站不住脚。 Neotoma 作为一种可以与多种工具共存的个人记录系统变得很有吸引力。

**人工智能原生小团队和混合产品或运营团队**是第二个。个人可以弥补模糊记忆。团队不能。一旦每个人的代理人记住的事实或假设略有不同，协调成本就会增加。工具碎片加速了这种情况，审计压力使共享内存合法化，而计量使用则将偏差转化为预算浪费。在这种环境中，Neotoma 的功能不再是生产力层，而是共享认知基础设施。

**将代理嵌入到产品或平台中的开发集成商和人工智能工具构建商**是第三种。对他们来说，内存故障就是生产故障。随着智能体变得自主，不透明的回忆变得无法测试和不可接受。当内存错误被重新定义为系统故障而不是怪癖时，构建者开始寻找行为类似于数据库而不是对话的内存原语。 Neotoma 在这里作为基质而不是特征变得相关。

在所有这些人口统计数据中，采用是有条件的、逐步的，而不是炒作驱动的。

## 什么会证伪这个观点

任何严肃的未来愿景都应该是可证伪的。如果没有明确的信号来证明它是错误的，那么它就不是一个论文，而是一个信念。这对产品策略直接重要，因为构建一个无法实现的未来会导致优雅的无关紧要，而不是被采用。

最重要的伪造者是大型人工智能平台，提供真正可移植、可检查、可重播且跨工具可信的内存。不是营销意义上的记忆，而是用户拥有、可导出、语义明确且跨上下文稳定的记忆。如果平台原生内存在实践中变得具有权威性（意味着用户和组织相信它是已知内容和时间的规范记录），那么对外部真相层的需求就会崩溃。在那个世界里，Neotoma 的核心差异化是侵蚀而不是复合。

第二个伪造者将有意义地整合到一个主导的人工智能工作空间中，该工作空间拥有端到端的执行、内存和工具。如果碎片压力因一个表面成功吸收堆栈而消失，则共享内存基板的杠杆作用将急剧下降。

第三个伪造者是代理仍然短暂，受到严格监督，并且重置成本低廉，故障继续主要通过重新启动而不是诊断状态来处理。如果长时间运行的代理没有实现，并且重置仍然是主要的恢复策略，那么确定性内存仍然是可选的而不是必需的。

最后，如果审计和责任压力未能转移到低端市场（如果人工智能对大多数专业人士来说仍然是建议性的而不是重要的），那么来源重的记忆在比预期更长的时间内仍然是过度杀伤力。

观察这些反信号与观察确认同样重要。它们提供了早期预警，表明推动采用的假设正在减弱，策略应相应调整。无法被证伪的愿景就无法被纠正，基于这种愿景构建的产品可能会为一个永远不会到来的世界而精心设计。

## 内存作为关键的开放基础设施

这并不是一个关于世界在哲学上变得更加致力于真理或正确性的预测。

据预测，代理将变得有状态，错误变得昂贵，平台仍然不透明，工具仍然分散，审计压力分散，并且使用变得昂贵。

如果这个轨迹的一部分成立，那么内存就不再是用户体验功能，而是成为必然开放的基础设施。在那个世界里，将内存视为确定性、可检查状态的系统不再是空想。它们只是防止复杂系统以不透明和不可恢复的方式发生故障的最便宜的方法。

Neotoma 并不是这一变化的推动者。这是对此的一种合理的回应。