Каждый, кто сейчас занимается ИИ, явно или неявно пытается предсказать, куда будут идти события и как эти изменения изменят нашу жизнь и работу. Объем спекуляций огромен, и многие из них противоречивы. Это неизбежно. Никто не может с уверенностью знать, что принесут следующие пару лет. Пространство движется слишком быстро, взаимодействия между технологиями слишком сложны, а эффекты второго порядка доминируют таким образом, что их трудно смоделировать заранее.

Тем не менее, если вы работаете в этой сфере, особенно если вы создаете что-то с использованием ИИ или для ИИ, недостаточно оставаться агностиком. Вы должны выбрать набор основных тезисов о том, как мир, вероятно, будет развиваться и последовательно строиться вокруг них, зная, что некоторые из них будут неправильными, а другие будут иметь большее значение, чем ожидалось. Эти тезисы касаются не точного прогнозирования, а скорее выявления структурного давления, которое вряд ли обратится вспять.

Ниже приведены основные предположения, в соответствии с которыми я сейчас действую. Это не утверждения о неизбежности, и они не предназначены для охвата всех возможных вариантов будущего. Это тенденции, которые, если они продолжатся хотя бы частично, будут определять, как, по моему мнению, будут использоваться системы искусственного интеллекта, где будут накапливаться разногласия и какая инфраструктура станет необходимой. Мою работу ([Neotoma](/posts/truth-layer-agent-memory), слой истины) лучше всего понимать как ответ на эти предположения. Они не являются их причиной, но они построены в предвосхищении мира, который они подразумевают.

## 1. Агенты станут государственными экономическими субъектами

В течение следующих двух лет агенты, вероятно, выйдут за рамки вспомогательных, ориентированных на быстрые действия взаимодействий и станут значимыми субъектами, поддерживающими состояние. Никакого прорыва в общем интеллекте не требуется. Достаточно более дешевого вывода, более функциональных API-инструментов и более широкой терпимости к агентам, работающим без присмотра.

Социальный сдвиг реален. Мы привыкли к инструментам, которые ничего не делают, пока мы не начнём действовать. Когда агенты настаивают на достижении целей, координируют действия друг с другом и со временем предпринимают необратимые действия, на вопрос о том, кто несет ответственность, становится труднее ответить. Больше работы делегируется нечеловеческим субъектам; [Граница](/posts/we-are-all-centaurs-now) между «я сделал это» и «это сделал мой агент» смягчается. Нормы, касающиеся доверия, ответственности и зависимости, придется адаптировать. Технология делает возможным изменение; общество должно решить, как с этим жить.

Почему эта тенденция вероятна? Предельная стоимость поддержания жизни агентов падает быстрее, чем стоимость восстановления контекста. Поскольку вывод становится дешевле, а оркестрация становится более зрелой, более эффективно сохранять состояние агента, чем восстанавливать его с нуля. API-интерфейсы инструментов все чаще предполагают непрерывность: учетные данные, кэши, промежуточные артефакты. Настойчивость вознаграждается по сравнению с безгражданством.

В этом мире память перестает быть удобством. Он становится частью состояния системы, сравнимой скорее с базой данных, чем с журналом чата. Когда это состояние правильное и заслуживающее доверия, новые вещи становятся возможными в масштабе: долгосрочные планы, охватывающие дни или недели, координация между многими агентами и инструментами, а также делегированная работа, которая осуществима только тогда, когда государству можно доверять и расширять его с течением времени.

Neotoma создана для этого. Он рассматривает память как явное состояние системы: типизированные сущности, события и отношения в детерминированном графе, а не остаток подсказок или встроенное сходство. Историю агента можно воспроизводить, проверять и анализировать как часть самой системы.

Что посмотреть в следующем году:
1. Платформы агентов рекламируют длительное, фоновое или возобновляемое выполнение в качестве основной функции.
2. Команды обсуждают повреждение или смещение состояния агентов как отдельный класс ошибок, а не перезапуск агентов в качестве исправления.
3. Интерфейсы продукта представляют историю агента как нечто поддающееся проверке, а не эфемерное.
4. Команды, использующие несколько агентов, которым нужен единый источник достоверной информации о сущностях и решениях.

## 2. Агентские ошибки станут экономически заметными

Поскольку результаты ИИ все чаще направляются непосредственно на выставление счетов, соблюдение требований, результаты работы клиентов и автоматизированные рабочие процессы, цена ошибок, вероятно, изменится. То, что в настоящее время является расплывчатым неудобством, становится явным экономическим эффектом.

Когда ошибки начинают проявляться в вскрытиях, контрактах и ​​судебных документах, общество получает более четкое представление о том, кто несет расходы и кого обвиняют. Организации столкнутся с необходимостью доказать, как были приняты решения и что система знала на тот момент. Это давление отразится на профессиональных нормах, страховании и регулировании. Отдельные люди и небольшие команды могут руководствоваться стандартами, которые изначально были разработаны для крупных организаций с контрольными журналами. Плюсом является большая ответственность и меньше молчаливых неудач. Обратной стороной является то, что планка «объяснимости» и «проверяемости» может подняться быстрее, чем многие к этому готовы.

Структурная причина этой тенденции, вероятно, заключается в том, что ИИ приближается к краям принятия решений, а не только к консультативным уровням. Поскольку результаты ИИ внедряются в системы, которые запускают платежи, обязательства или внешнюю связь, ошибки наследуют структуру затрат этих систем. Организации не могут продолжать относиться к неудачам как к «причудам модели», если они перерастают в необратимые действия.

Сегодня ошибки часто игнорируются регенерацией или быстрыми корректировками. Завтра те же самые ошибки приведут к пустой трате денег, нанесут ущерб репутации или создадут юридическую угрозу.

Когда ошибки становятся платными, организации перестают спрашивать, были ли результаты полезны. Они начинают спрашивать, как были получены эти результаты, на какую информацию они опирались и можно ли воспроизвести или проверить этот процесс.

Как следствие, снижается толерантность к приблизительной или двусмысленной памяти. Планка того, что считается достаточно хорошим, сначала поднимается там, где виден вред, а затем этот стандарт снижается. Когда ошибки обходятся дорого, память, которую можно исправлять и отслеживать, становится инфраструктурой, а не удобством.

Neotoma соответствует этому сдвигу, гарантируя происхождение на уровне памяти. Факты хранятся с указанием источника, временными метками и событиями приема. Исправления являются аддитивными, а не разрушительными, позволяя командам точно восстановить то, что агент знал на момент принятия решения, вместо того, чтобы гадать на основе частичных журналов.

Что посмотреть в следующем году:
1. Сбои, связанные с ИИ, возникающие при вскрытии, клиентских спорах или в правовом контексте.
2. Команды прямо спрашивают: «Что агент знал в тот момент?» после ошибок.
3. Требования к отслеживаемости или аудиту добавляются к рабочим процессам ИИ задним числом.
4. Публичные инциденты, связанные с ошибками памяти ИИ; в посмертных исследованиях язык меняется от «галлюцинации» к «системному сбою».
5. Команды, запрашивающие «отменить этот факт» или «вернуть то, что считает агент» без полного сброса.
6. «Во что верит система и как она развивалась?» оформленный как запрос к согласованному графу, а не как вызов RAG.

## 3. Аудит и соблюдение требований будут снижаться на рынке

Связанная с этим тенденция: необходимость доказывать, как производилась работа и что знала система, не останется ограничиваться крупными предприятиями. Везде, где ошибки влекут за собой реальную цену — экономическую, юридическую или репутационную, — возникает потребность в защите и ведении учета. По мере того, как ИИ внедряется в профессиональную работу, консультанты, агентства, регулируемые фрилансеры и небольшие команды, использующие ИИ, столкнутся с теми же ожиданиями.

Структурная причина – диффузия ответственности. Поскольку использование ИИ становится нормой, ответственность не исчезает. Оно распространяется. Клиенты, страховщики и регулирующие органы в ответ ищут компенсирующие меры контроля. Давление аудита снижает рынок не потому, что этого хотят небольшие команды, а потому, что за использованием следует риск.

Как только вопросы о том, как была создана работа, становятся рутинными, память без происхождения становится скорее обузой, чем удобством. Структурированные временные рамки, отзыв на уровне объекта и указание источника начинают функционировать как защитная инфраструктура.

Неотома поддерживает этот сдвиг, рассматривая память как нечто, что можно реконструировать во времени, а не делать выводы ретроспективно. Разрешение сущностей, временное упорядочение и происхождение не являются дополнениями. Они являются основой модели.

Что посмотреть в следующем году:
1. Раскрытие информации об использовании ИИ в контрактах, описаниях работ или профессиональных руководствах.
2. Запросы на документацию решений, принимаемых с помощью ИИ, от клиентов или страховщиков.
3. Отдельные люди или небольшие команды активно хранят записи взаимодействия ИИ в целях защиты.
4. Регулирование, которое прямо требует ведения учета или объяснения определенных видов использования ИИ.

## 4. Память платформы останется непрозрачной

Крупные платформы искусственного интеллекта, вероятно, продолжат поставлять функции памяти, которые полезны, но принципиально непрозрачны. Их стимулы благоприятствуют вовлечению, удержанию и оптимизации моделей, а не контролируемому пользователем происхождению или гарантиям правильности.

Социальный эффект – это раскол между теми, кто может позволить себе уход, и теми, кто не может. Люди и организации, которым нужны надежные гарантии (аудит, корректность, переносимость), либо будут платить за альтернативы, либо создавать свои собственные, либо примут на себя риск. Все остальные будут полагаться на память платформы и жить с дефицитом доверия. Этот разрыв может усилить существующее неравенство. У обеспеченных людей есть прозрачная портативная память; все остальные получают удобство благодаря непрозрачным условиям. Со временем нормы о том, что означают «мои данные» и «моя история», могут различаться в зависимости от контекста и того, кем вы являетесь. Гражданские и профессиональные ожидания (например, что вы можете демонстрировать свою работу или экспортировать свои записи) могут относиться только к некоторым.

Структурная причина, по которой это сохраняется, заключается в [несогласованности стимулов](/posts/building-structural-barriers). Платформы оптимизируются для получения совокупных результатов для миллионов пользователей, а не для обеспечения гарантий правильности, требуемых для любого отдельного рабочего процесса. Раскрытие семантики памяти, правил исправления или гарантий воспроизведения ограничивает скорость итерации и увеличивает ответственность. Непрозрачность не случайна. Это защитное действие.

Память может улучшиться, но ее по-прежнему будет сложно проверять, экспортировать, воспроизводить или рассуждать формально, особенно с помощью различных инструментов. Исправления часто будут скрытыми, неявными или зависящими от модели.

Это создает растущий разрыв доверия. Пользователи могут полагаться на память платформы ради удобства, одновременно не доверяя ей в ситуациях, когда последствия имеют значение.

Суверенитет данных создает дополнительное давление: предприятия и частные лица все чаще настаивают на том, чтобы память агентов оставалась в их среде, локальной, в арендаторе или под их контролем, а не в облаке поставщика.

Neotoma создана с учетом этого пробела. Его локальный, проверяемый и управляемый пользователем дизайн является альтернативой для рабочих процессов, где важны правильность и происхождение. Вы владеете данными и семантикой; вы можете экспортировать, исправлять и рассуждать о том, что знает система.

Что посмотреть в следующем году:
1. Функции памяти, которые улучшают запоминание, но остаются недокументированными или не подлежащими экспорту.
2. Пользователи спрашивают, что на самом деле знает система (например, полное представление о том, что она считает, помнит и делает выводы, а не просто сырой чат или экспорт), и не получают четкого ответа.
3. Обходные пути (например, экспорт, сторонняя синхронизация, ручная репликация) растут, а не сокращаются.
4. Запросы предложений или требования, указывающие, что память агента должна оставаться локальной или в клиенте пользователя.

## 5. Фрагментация инструмента сохранится

Несмотря на повторяющиеся разговоры об объединении в единую платформу или рабочее пространство ИИ, работа в области знаний, скорее всего, останется фрагментированной. Профессионалы уже работают с множеством моделей, редакторов, вторых пилотов, систем документов и агентских инфраструктур.

Структурная причина заключается в том, что инструменты ИИ дополняют, а не заменяют друг друга. Каждый из них оптимизирует свою часть рабочего процесса: создание идей, исполнение, кодирование, извлечение, коммуникацию. Незначительные улучшения не разрушают стопку. Низкие затраты на переход и быстрая итерация модели еще больше препятствуют консолидации.

По мере увеличения количества инструментов основная проблема смещается от фрагментации интерфейса к фрагментации состояния. Контекст живет в слишком многих местах одновременно, и ни одна поверхность не может реально владеть им.

Неотома прячется за этой фрагментацией, а не пытается ее разрешить. Предоставляя доступ к памяти через интерфейс протокола, а не через единый пользовательский интерфейс, он позволяет нескольким инструментам и агентам читать и записывать в одно и то же базовое состояние, не принуждая к конвергенции на одном рабочем процессе или поставщике.

Что посмотреть в следующем году:
1. Профессионалы переключают модели или инструменты в процессе выполнения задачи без четкой миграции контекста.
2. Неоднократные жалобы на «потерю контекста» между инструментами.
3. Команды стандартизируют рабочие процессы, которые явно охватывают несколько продуктов искусственного интеллекта.

## 6. Использование агентов станет дозированным

Кроме того, исполнение агентов, вероятно, будет все больше ограничиваться затратами. Структурная причина проста: вычисления становятся заметной статьей расходов. Никакой радикальной экономической реструктуризации не требуется.

По мере роста расходов на ИИ организации внедряют бюджетирование, атрибуцию и оптимизацию. Как только затраты становятся видимыми, естественным образом следует измерение.

Когда использование становится платным, неэффективность и дрейф перестают быть абстрактными проблемами. Пересчет контекста, неправильное запоминание предыдущих решений или повторение работы становятся видимыми потерями.

Детерминированная модель памяти Неотомы становится здесь актуальной, поскольку она отделяет долговременную память от временного контекста. Включив воспроизведение вместо регенерации, он рассматривает память как поверхность оптимизации, а не как побочный эффект вывода.

Что посмотреть в следующем году:
1. Teams отслеживает затраты на использование агента или модели для каждой задачи или рабочего процесса.
2. Агенты, учитывающие бюджет, которые меняют поведение в зависимости от оставшихся расходов.
3. Усилия по оптимизации были сосредоточены на сокращении избыточных выводов, а не на улучшении подсказок.

## Как эти тенденции влияют на ключевые демографические группы

Эти тенденции действуют как условия активации для отдельных затронутых демографических групп. Неотома не становится важным благодаря убеждению. Это становится важным, когда реальность устраняет альтернативы.

**Отдельные операторы, работающие с искусственным интеллектом, и работники, работающие с высококонтекстными знаниями**, являются первыми: основатели, консультанты, исследователи и индивидуальные строители, глубоко использующие ИИ в мышлении и исполнении. Внедрение сдерживается агентами с сохранением состояния, экономически видимыми ошибками и неудовлетворенностью непрозрачной памятью платформы. Когда результаты имеют внешнее значение (для клиентов, сотрудников или доходов), невозможность ответить: «Что знала система, когда это было произведено?» становится несостоятельным. Neotoma становится привлекательной как персональная система учета, которая может сосуществовать с несколькими инструментами.

**Небольшие команды, работающие с искусственным интеллектом, и гибридные команды по продуктам или операциям** занимают второе место. Люди могут компенсировать нечеткую память. Команды не могут. Как только агенты каждого человека запоминают немного разные факты или предположения, затраты на координацию возрастают. Фрагментация инструментов ускоряет этот процесс, давление аудита узаконивает общую память, а дозированное использование превращает дрейф в трату бюджета. В этой среде Neotoma функционирует не столько как уровень производительности, сколько как общая когнитивная инфраструктура.

**Интеграторы-разработчики и создатели инструментов искусственного интеллекта**, которые встраивают агентов в продукты или платформы, занимают третье место. Для них отказ памяти — это производственный сбой. Когда агенты становятся автономными, непрозрачный отзыв становится непроверяемым и неприемлемым. Когда ошибки памяти воспринимаются как сбои системы, а не как странности, разработчики начинают искать примитивы памяти, которые ведут себя как базы данных, а не как диалоги. Неотома здесь становится актуальной как субстрат, а не признак.

Во всех этих демографических группах внедрение носит условный и поэтапный характер, а не вызвано шумихой.

## Что могло бы опровергнуть это мнение

Любое серьёзное видение будущего должно быть фальсифицируемым. Без четких сигналов, доказывающих обратное, это будет не тезис, а убеждение. Это имеет непосредственное значение для продуктовой стратегии, поскольку стремление к будущему, которое не материализуется, ведет скорее к элегантной неактуальности, чем к принятию.

Самым значительным фальсификатором могут стать крупные платформы искусственного интеллекта, предоставляющие действительно портативную, проверяемую, воспроизводимую и надежную память для различных инструментов. Не память в маркетинговом смысле, а память, принадлежащая пользователю, экспортируемая, семантически явная и стабильная в разных контекстах. Если собственная память платформы на практике становится авторитетной (то есть пользователи и организации доверяют ей как канонической записи того, что и когда было известно), необходимость во внешнем слое истины отпадает. В этом мире основная дифференциация Неотомы скорее разрушается, чем усложняется.

Вторым фальсификатором могла бы стать значимая консолидация в единое доминирующее рабочее пространство ИИ, которое будет полностью контролировать исполнение, память и инструменты. Если давление фрагментации исчезает из-за того, что одна поверхность успешно поглощает стек, эффективность подложек общей памяти резко снижается.

Третьим фальсификатором будет то, что агенты останутся недолговечными, строго контролируемыми и дешевыми в перезапуске, а сбои по-прежнему будут обрабатываться в основном путем перезапуска, а не диагностики состояния. Если долгоработающие агенты не материализуются и сброс остается доминирующей стратегией восстановления, детерминированная память остается скорее необязательной, чем необходимой.

Наконец, если давление аудита и ответственности не снизит рынок (если ИИ останется рекомендательным, а не значимым для большинства профессионалов), то память с большим количеством источников происхождения останется избыточной дольше, чем ожидалось.

Наблюдение за этими встречными сигналами так же важно, как и наблюдение за подтверждением. Они обеспечивают раннее предупреждение о том, что предположения, лежащие в основе внедрения, ослабевают и что стратегия должна соответствующим образом адаптироваться. Видение, которое невозможно фальсифицировать, невозможно исправить, и продукт, созданный на основе такого видения, рискует оказаться хорошо спроектированным для мира, который никогда не наступит.

## Память как критическая открытая инфраструктура

Это не предсказание того, что мир станет более философски привержен истине или правильности.

Это прогноз, что агенты переходят в состояние состояния, ошибки становятся дорогостоящими, платформы остаются непрозрачными, инструменты остаются фрагментированными, давление аудита распространяется, а использование становится платным.

Если хотя бы часть этой траектории сохранится, память перестанет быть функцией UX и станет обязательно открытой инфраструктурой. В этом мире системы, которые рассматривают память как детерминированное, контролируемое состояние, больше не являются фантастическими. Это просто самый дешевый способ уберечь сложные системы от непрозрачных и безвозвратных сбоев.

Неотома не является движущей силой этих изменений. Это один из возможных ответов на это.