[Клод перевел память на бесплатный план](https://x.com/claudeai/status/2028559427167834314) — это настоящая веха. Это подтверждает, что память теперь является основной характеристикой продукта, а не преимуществом премиум-класса.

Эта часть — отличная новость.

Более сложный вопрос заключается в том, что на самом деле означает «память», если вы зависите от нее в реальной работе. Я тестировал память как в Claude, так и в ChatGPT в течение нескольких месяцев. Две проблемы продолжают проявляться.

## Что на самом деле хранит память

И Клод, и ChatGPT используют слово «память» таким образом, что люди предполагают, что они полностью сохраняют значимые детали во время разговоров. Реальность другая. То, что эти платформы называют памятью, ближе к профилю, чем к записи того, над чем вы работали.

То, что хранят эти системы, ближе к сокращенным фрагментам профиля. Они наблюдают за вашими разговорами и извлекают несколько фактов о том, кто вы и как предпочитаете работать. Клод, кажется, делает это лучше всех. Для каждого чата он выдает несколько наблюдений, в основном о вашей личности как профессионала, ваших предпочтениях в стиле и о том, как вам нравится взаимодействовать с ИИ. ChatGPT, по крайней мере, по моему опыту, имеет тенденцию сохранять эти фрагменты только тогда, когда вы явно предлагаете это сделать.

![Экспорт памяти Клода показывает фрагменты на уровне профиля без дат](/images/posts/your-ai-remembers-your-vibe-but-not-your-work-claude-memory-export.png)

Эти функции не отражают подробные сведения о том, над чем вы на самом деле работали.

Если я заговорю о своих занятиях фитнесом, упражнениях, которые я выполняю, статистике состава тела, которую я отслеживаю, система подведет итог, что я «занимаюсь фитнесом». Он не будет хранить фактические данные об изменении моего здоровья. Если я работаю над финансовым анализом или рядом задач проекта, система может заметить, что меня интересуют эти области. Он не сохранит специфику.

Широкое утверждение о том, что эти агенты помнят предоставленный вами «контекст», полезно, но узко. Это хорошо для знакомства. Это делает разговоры более естественными. Это не дает никаких гарантий, что агент сможет ответить на подробные вопросы о прошлой работе или продолжить с того места, на котором вы остановились.

В результате получается что-то вроде друга, который забывает детали всего, о чем вы говорили, но имеет смутное представление о том, кто вы как личность. Это полезно для более плавного разговора. Это бесполезно для делегирования текущей работы.

## Когда портируемость нарушается

Одновременно с выпуском памяти Claude сделал привлекательное предложение: [импортируйте свою память из других сервисов](https://claude.com/import-memory). Идея проста. Спросите своего старого помощника, что он знает о вас, скопируйте выходные данные и перенесите их в Клод.

С точки зрения UX это разумно. Как инфраструктура, она быстро ломается.

Я проверил это с помощью ChatGPT. Когда я впервые использовал приглашение экспорта Клода в обычном чате, не связанном с проектом, ChatGPT ответил сохраненными фрагментами памяти. Но в основном это были устаревшие записи, многие из которых были из 2024 года, и почти ни одна из них не отражала мою недавнюю работу или общение в этом году. Не было никаких признаков того, что система автоматически извлекла что-то новое из сотен разговоров, которые я вел за последние несколько месяцев.

![Сохраненные воспоминания ChatGPT показывают устаревшие записи поверхностного уровня](/images/posts/your-ai-remembers-your-vibe-but-not-your-work-chatgpt-saved-memories.png)

Контекст перекрестного чата, который явно есть в ChatGPT, где информация из одного потока появляется в другом, вообще не отображался при экспорте. Проходили только дискретные, явно сохраненные записи памяти.

Когда я снова попробовал то же самое приглашение на экспорт в последующих чатах, не связанных с проектом, ChatGPT полностью отказался. Во второй раз список памяти не будет создан. Так что даже частичный экспорт, который я получил, был разовым результатом.

![ChatGPT отказывается экспортировать память, указывая внутренние категории как не подлежащие экспорту](/images/posts/your-ai-remembers-your-vibe-but-not-your-work-chatgpt-export-denied.png)

В чатах по проектам ситуация была еще хуже. Когда я использовал ту же подсказку внутри проекта ChatGPT, он с самого начала отказался экспортировать память. Вместо этого он перенаправил меня на функцию массового экспорта разговоров. Эта функция дает вам дамп необработанных данных, а не структурированный контекст. Вы получаете файлы для скачивания и разбираетесь самостоятельно.

![Отказ ChatGPT: нет дампа воспоминаний или внутреннего контекста](/images/posts/your-ai-remembers-your-vibe-but-not-your-work-chatgpt-refusal-no-dump.png) ![ChatGPT, что можно экспортировать: данные аккаунта и отличие от внутреннего резюме](/images/posts/your-ai-remembers-your-vibe-but-ot-your-work-chatgpt-export-what-you-can.png)

Таким образом, история переносимости имеет пробелы с обоих концов. Исходная платформа контролирует, что и где она будет раскрывать. Целевая платформа может принимать только то, что действительно происходит. Если экспорт является частичным, устаревшим и зависит от поверхности, «переносимость» — это передача с максимальной эффективностью, а не надежная государственная миграция.

## Три категории, скрывающиеся под одним словом

Я думаю, что рынок рушится как минимум по трем вещам под словом «память».

Во-первых, это удобство памяти. Фрагменты профиля, которые сглаживают взаимодействие, избегают повторов и помогают персонализировать. Это заставляет чат-ботов чувствовать себя менее безгражданскими. Это то, что сегодня предлагают Клод и ChatGPT, и это то, что описано в первых двух разделах этого поста.

Второй — память, дополненная поиском. Некоторые платформы уже в некоторой степени делают это, рассматривая расшифровки прошлых разговоров как файлы и выполняя поиск по ним по требованию. В более широком смысле, агент использует агентный поиск или поиск на основе внедрения в ваших файлах, почте и инструментах, чтобы выявить контекст, когда вы его запросите. Он может ответить: «Что мы решили в последних трех письмах?» или «найти что-нибудь о квартире в Барселоне». Это шаг вперед по сравнению с фрагментами профиля. Но [агентный поиск делает вывод; это не гарантирует](/posts/agentic-search-and-the-truth-layer). Не существует ни постоянного канонического состояния, ни происхождения, ни межсессионной согласованности. Тот же вопрос в следующий раз может дать другой ответ. Это золотая середина: лучше, чем удобная память для реальной работы, а не замена долговечному состоянию.

Третье — долговечная оперативная память. Это типизированное, детерминированное и проверяемое состояние, которое может пережить смену инструментов, переключение платформ и границы рабочего процесса. Это то, что вам нужно, когда агенты начинают обрабатывать повторяющиеся задачи, контакты, обязательства и транзакции от вашего имени.

Все три имеют значение. Они не взаимозаменяемы, и объединение их в одно слово создает [проблему истины](/posts/agent-memory-truth-problem), как только вы зависите от любого из них в реальной работе.

Удобная память выигрывает у чата. При поиске выигрывают исследовательские, разовые вопросы. Долговечная память побеждает нижний уровень состояния.

## Как Неотома справляется с этим по-другому

Строю Неотому для третьей категории. Ранее я писал о [создании слоя истины для постоянной памяти агента](/posts/truth-layer-agent-memory).

Основное отличие конструкции заключается в том, что Neotoma рассматривает память как явную инфраструктуру данных, принадлежащую пользователю, а не как непрозрачный побочный продукт взаимодействия в чате.

**Сущности вместо фрагментов.** Каждая часть контекста в Neotoma представляет собой структурированную сущность с типом, свойствами и связями с другими сущностями. Контакт есть контакт. Задача есть задача. Финансовый отчет — это финансовый отчет. Они не свернуты в пакет с краткими описаниями на естественном языке о том, «что волнует пользователя». Когда агент что-то сохраняет, он сохраняет типизированную запись. Когда агент что-то извлекает, он возвращает детерминированный результат, а не вероятностную реконструкцию.

**Происхождение каждого факта.** Каждое наблюдение в Неотоме отслеживает, откуда оно произошло и когда оно было записано. Если два агента предоставляют информацию об одном и том же объекте, каждый вклад отслеживается отдельно. Черного ящика нет. Вы можете провести аудит любого факта до его источника.

**Доступ к нескольким инструментам через MCP.** Neotoma предоставляет свои данные через протокол контекста модели, что означает, что любой MCP-совместимый агент может читать и записывать на один и тот же уровень истины. Я использую это ежедневно. Те же данные, которые я заполняю через Cursor, доступны Claude, ChatGPT и любому будущему инструменту, поддерживающему MCP. Шаг экспорта отсутствует. Копипаста нет. Данные просто доступны, доступны и согласованы независимо от того, с каким агентом я работаю.

**Нет шлюзования платформы.** В модели ChatGPT память находится внутри платформы, и платформа решает, что, где и кому раскрывать. В Neotoma хранилище данных принадлежит пользователю. Ни одна платформа не может отказаться от его экспорта, потому что она никогда не была привязана к нему.

**Инкрементно и компонуемо.** Агенты могут со временем добавлять наблюдения к существующим объектам. Если один агент поможет мне с налогами в этом году, другой агент на другой платформе в следующем году сможет получить деньги из тех же структурированных записей. Знания накапливаются, а не сбрасываются.

Это создает чистое разделение. Интерфейсы чата могут постоянно оптимизироваться с точки зрения качества взаимодействия, индивидуальности и UX. Нижний слой истины оптимизирует надежность, полноту и контроль. Когда меняется одна модель или интерфейс, базовое состояние не меняется вместе с ней.

## Где, я думаю, это происходит

В ближайшем будущем большинство пользователей продолжат использовать память платформы. Они должны. Он улучшается, и чат становится лучше.

Параллельно любой, кто строит серьезные рабочие процессы агентов, начнет сталкиваться с теми же пробелами, с которыми столкнулся я: частичный отзыв, устаревший экспорт, поведение, зависящее от поверхности, галлюцинаторный контекст. Эти проблемы становятся дороже, если вы делегируете больше ответственности. Я отдельно написал о [шести структурных тенденциях](/posts/six-agentic-trends-betting-on), которые со временем увеличивают этот разрыв: агенты становятся сохраняющими состояние, ошибки становятся платными, платформы остаются непрозрачными, инструменты остаются фрагментированными.

Я ожидаю, что слои правды появятся под слоем чата. Сначала постепенно, потом по мере очевидной инфраструктуры.

Освобождение памяти Клодом продвигает всю категорию вперед. Мое тестирование просто проясняет, где проходит граница. Память платформы улучшает качество разговора. Он еще не обеспечивает надежную основу для межконтекстной и долгосрочной работы агентов.

Именно этот пробел я и создаю [Neotoma](/posts/neotoma-developer-release), чтобы заполнить его. Релиз для разработчиков доступен на сайте [neotoma.io](https://neotoma.io), и я активно приветствую тестировщиков.