Jeder, der derzeit mit KI zu tun hat, versucht implizit oder explizit vorherzusagen, wohin sich die Dinge entwickeln und wie diese Veränderungen unser Leben und unsere Arbeit verändern werden. Die Menge an Spekulationen ist enorm und viele davon sind widersprüchlich. Das ist unvermeidlich. Niemand kann mit Sicherheit wissen, was die nächsten Jahre bringen werden. Der Raum bewegt sich zu schnell, die Wechselwirkungen zwischen Technologien sind zu komplex und Effekte zweiter Ordnung dominieren auf eine Art und Weise, die sich im Voraus nur schwer modellieren lässt.

Wenn Sie jedoch in diesem Bereich tätig sind, insbesondere wenn Sie etwas mit KI oder für KI entwickeln, reicht es nicht aus, agnostisch zu bleiben. Sie müssen eine Reihe von Kernthesen darüber auswählen, wie sich die Welt wahrscheinlich entwickeln wird, und sich kohärent um sie herum aufbauen, wobei Sie wissen, dass einige falsch sein werden und andere wichtiger sein werden als erwartet. Bei diesen Thesen geht es weniger um präzise Vorhersagen als vielmehr um die Identifizierung struktureller Zwänge, die sich wahrscheinlich nicht umkehren werden.

Was folgt, sind die zentralen Annahmen, unter denen ich derzeit arbeite. Es handelt sich nicht um Behauptungen über die Unvermeidlichkeit, und sie sollen nicht jede mögliche Zukunft abdecken. Es sind die Trends, die, wenn sie auch nur teilweise anhalten, meiner Meinung nach die Art und Weise prägen, wie KI-Systeme eingesetzt werden, wo sich Spannungen ansammeln und welche Arten von Infrastruktur notwendig sein werden. Meine Arbeit ([Neotoma](/posts/truth-layer-agent-memory), eine Wahrheitsschicht) lässt sich am besten als Reaktion auf diese Annahmen verstehen. Es ist nicht der Grund dafür, aber es ist im Vorgriff auf die Welt aufgebaut, die sie implizieren.

## 1. Agenten werden zu zustandsbehafteten Wirtschaftsakteuren

In den nächsten zwei Jahren werden Agenten wahrscheinlich über unterstützende, auf Eingabeaufforderungen ausgerichtete Interaktionen hinausgehen und sich zu sinnvollen zustandsbehafteten Akteuren entwickeln. Es ist kein Durchbruch in der allgemeinen Intelligenz erforderlich. Kostengünstigere Schlussfolgerungen, leistungsfähigere Tool-APIs und eine größere Toleranz für unbeaufsichtigt ausgeführte Agenten reichen aus.

Der gesellschaftliche Wandel ist real. Wir sind an Werkzeuge gewöhnt, die nichts bewirken, bis wir handeln. Wenn Agenten an ihren Zielen festhalten, sich untereinander abstimmen und im Laufe der Zeit unumkehrbare Maßnahmen ergreifen, wird die Frage, wer dafür verantwortlich ist, immer schwieriger zu beantworten. Mehr Arbeit wird an nichtmenschliche Akteure delegiert; [die Grenze](/posts/we-are-all-centaurs-now) zwischen „Ich habe das getan“ und „Mein Agent hat das getan“ wird weicher. Normen rund um Vertrauen, Haftung und Abhängigkeit müssen angepasst werden. Die Technologie ermöglicht den Wandel; Die Gesellschaft muss entscheiden, wie sie damit lebt.

Warum ist dieser Trend wahrscheinlich? Die Grenzkosten für die Aufrechterhaltung des Agentenlebens sinken schneller als die Kosten für die Wiederherstellung des Kontexts. Da die Inferenz billiger wird und die Orchestrierung ausgereifter wird, ist es effizienter, den Zustand eines Agenten beizubehalten, als ihn von Grund auf neu zu rekonstruieren. Tool-APIs gehen zunehmend von Kontinuität aus: Anmeldeinformationen, Caches, Zwischenartefakte. Beharrlichkeit wird gegenüber Staatenlosigkeit belohnt.

In dieser Welt ist das Gedächtnis kein Komfortmerkmal mehr. Es wird Teil des Systemzustands, vergleichbar mit einer Datenbank und nicht mit einem Chatprotokoll. Wenn dieser Zustand korrekt und vertrauenswürdig ist, werden neue Dinge im großen Maßstab möglich: langfristige Pläne, die sich über Tage oder Wochen erstrecken, Koordination über viele Agenten und Tools hinweg und delegierte Arbeit, die nur dann machbar ist, wenn der Zustand vertrauenswürdig ist und im Laufe der Zeit erweitert werden kann.

Dafür ist Neotoma gebaut. Es behandelt den Speicher als expliziten Systemzustand: typisierte Entitäten, Ereignisse und Beziehungen in einem deterministischen Diagramm, nicht als sofortiges Residuum oder als eingebettete Ähnlichkeit. Der Verlauf eines Agenten kann als Teil des Systems selbst wiedergegeben, überprüft und begründet werden.

Was Sie im nächsten Jahr beachten sollten:
1. Agent-Frameworks, die die Ausführung über einen längeren Zeitraum, im Hintergrund oder wiederaufnehmbar als Kernfunktion anbieten.
2. Teams diskutieren die Korruption oder Drift des Agentenstatus als eigenständige Fehlerklasse, anstatt Agenten als Lösung neu zu starten.
3. Produktschnittstellen, die den Agentenverlauf als etwas Überprüfbares und nicht als Flüchtiges offenlegen.
4. Teams mit mehreren Agenten, die eine einzige Informationsquelle für Entitäten und Entscheidungen benötigen.

## 2. Agentenfehler werden wirtschaftlich sichtbar

Da die KI-Ergebnisse zunehmend direkt in die Abrechnung, Compliance, Kundenlieferungen und automatisierte Arbeitsabläufe einfließen, werden sich die Fehlerkosten wahrscheinlich verschieben. Was derzeit eine diffuse Unannehmlichkeit ist, wird zu expliziten wirtschaftlichen Auswirkungen.

Wenn in Obduktionen, Verträgen und Gerichtsakten Fehler auftauchen, gewinnt die Gesellschaft ein klareres Bild davon, wer die Kosten trägt und wer dafür verantwortlich gemacht wird. Organisationen werden unter Druck stehen, nachzuweisen, wie Entscheidungen getroffen wurden und was das System zu diesem Zeitpunkt wusste. Dieser Druck wird sich auf berufliche Normen, Versicherungen und Vorschriften auswirken. Einzelpersonen und kleine Teams können sich an Standards halten, die ursprünglich für große Institutionen mit Prüfpfaden entwickelt wurden. Der Vorteil ist mehr Verantwortung und weniger stille Fehler. Der Nachteil ist, dass die Messlatte für „erklärbar“ und „überprüfbar“ möglicherweise schneller steigt, als viele bereit sind.

Der strukturelle Grund für diesen Trend liegt wahrscheinlich darin, dass die KI näher an die Entscheidungsebene und nicht nur an die Beratungsebene heranrückt. Wenn die KI-Ausgabe nachgelagert in Systeme eingebettet wird, die Zahlungen, Verpflichtungen oder externe Kommunikation auslösen, übernehmen Fehler die Kostenstruktur dieser Systeme. Organisationen können Fehler nicht weiterhin als „Modell-Macken“ behandeln, sobald sie sich in irreversiblen Handlungen niederschlagen.

Heutzutage werden Fehler oft durch Regeneration oder sofortige Optimierungen abgetan. Morgen werden dieselben Fehler Geld verschwenden, den Ruf schädigen oder rechtliche Konsequenzen nach sich ziehen.

Wenn Fehler eingepreist werden, fragen Unternehmen nicht mehr, ob die Ergebnisse hilfreich waren. Sie beginnen zu fragen, wie diese Ergebnisse erzeugt wurden, auf welche Informationen sie sich stützten und ob der Prozess wiederholt oder überprüft werden kann.

Infolgedessen schwindet die Toleranz für ungefähre oder mehrdeutige Erinnerungen. Die Messlatte dafür, was als gut genug gilt, steigt zuerst, wenn ein Schaden sichtbar ist, und dann verschiebt sich dieser Standard nach außen. Sobald Fehler kostspielig sind, wird Speicher, den Sie korrigieren und nachverfolgen können, zur Infrastruktur und nicht mehr zur Annehmlichkeit.

Neotoma passt sich diesem Wandel an, indem es die Herkunft auf der Erinnerungsebene durchsetzt. Fakten werden mit Quellenangabe, Zeitstempeln und Aufnahmeereignissen gespeichert. Korrekturen sind eher additiv als destruktiv, sodass Teams genau rekonstruieren können, was ein Agent zum Zeitpunkt einer Entscheidung wusste, anstatt auf der Grundlage von Teilprotokollen zu raten.

Was Sie im nächsten Jahr beachten sollten:
1. KI-bezogene Fehler, die bei Obduktionen, Kundenstreitigkeiten oder im rechtlichen Kontext auftreten.
2. Teams fragen explizit: „Was wusste der Agent zu diesem Zeitpunkt?“ nach Fehlern.
3. Rückverfolgbarkeits- oder Prüfanforderungen werden rückwirkend zu KI-Workflows hinzugefügt.
4. Öffentliche Vorfälle, die auf KI-Speicherfehler zurückzuführen sind; Sprachwechsel von „Halluzination“ zu „Systemversagen“ in Obduktionen.
5. Teams fordern „diese Tatsache rückgängig machen“ oder „zurücksetzen, was der Agent glaubt“, ohne vollständige Zurücksetzungen.
6. „Was glaubt das System und wie hat es sich entwickelt?“ als Abfrage über ein konsistentes Diagramm und nicht als RAG-Aufruf dargestellt.

## 3. Audit und Compliance werden nach unten tendieren

Ein ähnlicher Trend: Der Druck, zu beweisen, wie Arbeit produziert wurde und was das System wusste, wird nicht auf große Unternehmen beschränkt bleiben. Überall dort, wo Fehler echte Kosten verursachen – wirtschaftliche, rechtliche oder rufschädigende –, folgt die Forderung nach Vertretbarkeit und Dokumentation. Mit der zunehmenden Einbindung von KI in die berufliche Arbeit werden Berater, Agenturen, regulierte Freiberufler und kleine KI-native Teams mit denselben Erwartungen konfrontiert.

Der strukturelle Grund ist die Haftungsdiffusion. Mit der Normalisierung der KI-Nutzung verschwindet die Verantwortung nicht. Es breitet sich aus. Kunden, Versicherer und Aufsichtsbehörden reagieren darauf, indem sie ausgleichende Kontrollen anstreben. Der Prüfungsdruck verlagert sich auf den Markt, nicht weil kleine Teams es wollen, sondern weil das Risiko der Nutzung folgt.

Sobald Fragen darüber, wie ein Werk entstanden ist, zur Routine werden, wird Erinnerung ohne Herkunft eher zu einer Belastung als zu einer Annehmlichkeit. Strukturierte Zeitpläne, Rückruf auf Entitätsebene und Quellenzuordnung beginnen, als defensive Infrastruktur zu fungieren.

Neotoma passt sich diesem Wandel an, indem es das Gedächtnis als etwas behandelt, das im Laufe der Zeit rekonstruiert werden kann, anstatt rückblickend abgeleitet zu werden. Entitätsauflösung, zeitliche Reihenfolge und Herkunft sind keine Add-ons. Sie sind der Kern des Modells.

Was Sie im nächsten Jahr beachten sollten:
1. Offenlegungen zur KI-Nutzung in Verträgen, Leistungsbeschreibungen oder Berufsrichtlinien.
2. Anfragen zur Dokumentation von KI-gestützten Entscheidungen von Kunden oder Versicherern.
3. Einzelpersonen oder kleine Teams speichern KI-Interaktionsdatensätze proaktiv und defensiv.
4. Regelung, die ausdrücklich die Führung von Aufzeichnungen oder die Erklärbarkeit bestimmter KI-Anwendungen vorschreibt.

## 4. Der Plattformspeicher bleibt undurchsichtig

Große KI-Plattformen werden wahrscheinlich weiterhin nützliche, aber grundsätzlich undurchsichtige Speicherfunktionen liefern. Ihre Anreize begünstigen Engagement, Bindung und Modelloptimierung statt benutzergesteuerter Herkunft oder Korrektheitsgarantien.

Der gesellschaftliche Effekt ist eine Spaltung zwischen denen, die es sich leisten können, sich um die Pflege zu kümmern, und denen, die es nicht können. Personen und Organisationen, die starke Garantien benötigen (Prüfung, Korrektheit, Portabilität), zahlen entweder für Alternativen, entwickeln ihre eigenen oder nehmen Risiken in Kauf. Alle anderen werden sich auf den Plattformspeicher verlassen und mit der Vertrauenslücke leben. Diese Kluft kann bestehende Ungleichheiten verstärken. Wer gut ausgestattet ist, erhält transparenten, portablen Speicher; Alle anderen profitieren von undurchsichtigen Begriffen. Im Laufe der Zeit können sich die Normen darüber, was „meine Daten“ und „mein Verlauf“ bedeuten, je nach Kontext und Person unterscheiden. Bürgerliche und berufliche Erwartungen (z. B. dass Sie Ihre Arbeit zeigen oder Ihre Unterlagen exportieren können) gelten möglicherweise nur für einige.

Der strukturelle Grund, warum dies weiterhin besteht, ist [Fehlausrichtung der Anreize](/posts/building-structural-barriers). Plattformen optimieren für aggregierte Ergebnisse für Millionen von Benutzern und nicht für die Korrektheitsgarantien, die für einen einzelnen Workflow erforderlich sind. Das Offenlegen von Speichersemantik, Korrekturregeln oder Wiedergabegarantien schränkt die Iterationsgeschwindigkeit ein und erhöht die Zuverlässigkeit. Undurchsichtigkeit ist kein Zufall. Es ist schützend.

Der Speicher kann sich zwar verbessern, es wird jedoch weiterhin schwierig sein, ihn formal zu überprüfen, zu exportieren, wiederzugeben oder zu begründen, insbesondere bei verschiedenen Tools. Korrekturen erfolgen häufig stillschweigend, implizit oder modellspezifisch.

Dadurch entsteht eine wachsende Vertrauenslücke. Benutzer können sich aus Bequemlichkeitsgründen auf den Speicher der Plattform verlassen und ihm gleichzeitig in Kontexten misstrauen, in denen es auf Konsequenzen ankommt.

Die Datensouveränität stellt einen weiteren Druck dar: Unternehmen und Einzelpersonen bestehen zunehmend darauf, dass der Agentenspeicher in ihrer Umgebung verbleibt, entweder vor Ort, in ihrem Mandanten oder unter ihrer Kontrolle, und nicht in der Cloud eines Anbieters.

Neotoma wurde für diese Lücke entwickelt. Sein lokales, überprüfbares, benutzergesteuertes Design ist die Alternative für Arbeitsabläufe, bei denen es auf Korrektheit und Herkunft ankommt. Sie besitzen die Daten und die Semantik; Sie können das, was das System weiß, exportieren, korrigieren und begründen.

Was Sie im nächsten Jahr beachten sollten:
1. Speicherfunktionen, die den Abruf verbessern, aber undokumentiert oder nicht exportierbar bleiben.
2. Benutzer fragen, was das System tatsächlich weiß – etwa einen umfassenden Überblick über das, was es glaubt, sich erinnert und abgeleitet hat, und nicht nur Roh-Chat oder Exporte – und erhalten keine klare Antwort.
3. Problemumgehungen (z. B. Exporte, Synchronisierung mit Drittanbietern, manuelle Replikation) nehmen zu, anstatt zu schrumpfen.
4. RFPs oder Anforderungen, die festlegen, dass der Agentenspeicher vor Ort oder im Mandanten des Benutzers verbleiben muss.

## 5. Die Tool-Fragmentierung bleibt bestehen

Trotz immer wiederkehrender Narrative über die Konsolidierung in einer einzigen KI-Plattform oder einem einzigen KI-Arbeitsbereich wird die Wissensarbeit wahrscheinlich weiterhin fragmentiert bleiben. Fachleute arbeiten bereits mit mehreren Modellen, Editoren, Copiloten, Dokumentensystemen und Agenten-Frameworks.

Der strukturelle Grund liegt darin, dass KI-Tools Ergänzungen und keine Substitute sind. Jedes optimiert einen anderen Teil des Arbeitsablaufs: Ideenfindung, Ausführung, Codierung, Abruf, Kommunikation. Geringfügige Verbesserungen bringen den Stapel nicht zum Einsturz. Niedrige Umstellungskosten und eine schnelle Modelliteration erschweren die Konsolidierung zusätzlich.

Mit zunehmender Werkzeugvielfalt verlagert sich das Kernproblem von der Schnittstellenfragmentierung zur Zustandsfragmentierung. Der Kontext existiert an zu vielen Orten gleichzeitig und keine einzelne Oberfläche kann ihn realistisch besitzen.

Neotoma sitzt unter dieser Fragmentierung, anstatt zu versuchen, sie aufzulösen. Durch die Bereitstellung des Speichers über eine Protokollschnittstelle statt über eine einzelne Benutzeroberfläche können mehrere Tools und Agenten aus demselben zugrunde liegenden Status lesen und in diesen schreiben, ohne die Konvergenz bei einem einzelnen Workflow oder Anbieter zu erzwingen.

Was Sie im nächsten Jahr beachten sollten:
1. Profis wechseln mitten in der Aufgabe Modelle oder Tools, ohne den Kontext sauber zu migrieren.
2. Wiederholte Beschwerden über „Kontextverlust“ zwischen Tools.
3. Teams standardisieren Arbeitsabläufe, die sich explizit über mehrere KI-Produkte erstrecken.

## 6. Die Agentennutzung wird gemessen

Die Agentenausführung wird wahrscheinlich auch zunehmend durch die Kosten eingeschränkt. Der strukturelle Grund ist einfach: Computing wird zu einem sichtbaren Einzelposten. Es ist keine radikale wirtschaftliche Umstrukturierung erforderlich.

Wenn die KI-Ausgaben steigen, führen Unternehmen Budgetierung, Zuordnung und Optimierung ein. Sobald die Kosten sichtbar sind, erfolgt die Messung wie von selbst.

Wenn die Nutzung bepreist wird, sind Ineffizienz und Drift keine abstrakten Probleme mehr. Das Neuberechnen des Kontexts, das falsche Erinnern an frühere Entscheidungen oder das Wiederholen von Arbeiten werden zu sichtbarer Verschwendung.

Das deterministische Gedächtnismodell von Neotoma wird hier relevant, weil es dauerhaftes Gedächtnis vom vorübergehenden Kontext trennt. Durch die Aktivierung der Wiedergabe anstelle der Regeneration wird der Speicher als Optimierungsoberfläche und nicht als Nebeneffekt der Inferenz behandelt.

Was Sie im nächsten Jahr beachten sollten:
1. Teams-Tracking-Agent- oder Modellnutzungskosten pro Aufgabe oder Workflow.
2. Budgetbewusste Agenten, die ihr Verhalten basierend auf den verbleibenden Ausgaben ändern.
3. Die Optimierungsbemühungen konzentrierten sich eher auf die Reduzierung redundanter Schlussfolgerungen als auf die Verbesserung von Eingabeaufforderungen.

## Wie sich diese Trends auf wichtige demografische Merkmale auswirken

Diese Trends dienen als Aktivierungsbedingungen für bestimmte betroffene Bevölkerungsgruppen. Neotoma wird nicht durch Überzeugung wichtig. Es wird wichtig, wenn die Realität Alternativen verschließt.

**KI-native Einzelbetreiber und High-Context-Wissensarbeiter** sind die Ersten: Gründer, Berater, Forscher und Einzelentwickler, die KI in allen Bereichen des Denkens und der Ausführung umfassend einsetzen. Die Akzeptanz wird durch zustandsbehaftete Agenten, wirtschaftlich sichtbare Fehler und Unzufriedenheit mit dem undurchsichtigen Plattformspeicher behindert. Sobald die Ergebnisse nach außen hin von Bedeutung sind (für Kunden, Mitarbeiter oder Einnahmen), besteht die Unfähigkeit zu antworten: „Was wusste das System, als es produziert wurde?“ wird unhaltbar. Neotoma wird als persönliches Aufzeichnungssystem attraktiv, das mit mehreren Tools koexistieren kann.

**KI-native kleine Teams und hybride Produkt- oder Betriebsteams** sind die zweiten. Einzelpersonen können ein unscharfes Gedächtnis ausgleichen. Teams können das nicht. Sobald sich die Agenten jeder Person an leicht unterschiedliche Fakten oder Annahmen erinnern, erhöhen sich die Koordinationskosten. Die Tool-Fragmentierung beschleunigt dies, der Prüfdruck legitimiert den gemeinsamen Speicher und die gemessene Nutzung wandelt Abweichungen in Budgetverschwendung um. In dieser Umgebung fungiert Neotoma weniger als Produktivitätsebene, sondern eher als gemeinsame kognitive Infrastruktur.

**Entwicklerintegratoren und KI-Tool-Builder**, die Agenten in Produkte oder Plattformen einbetten, sind der Dritte. Für sie ist ein Speicherausfall ein Produktionsausfall. Wenn die Agenten autonom werden, wird die undurchsichtige Erinnerung unüberprüfbar und inakzeptabel. Wenn Speicherfehler als Systemfehler und nicht als Macken interpretiert werden, beginnen Entwickler mit der Suche nach Speicherprimitiven, die sich wie Datenbanken und nicht wie Konversationen verhalten. Neotoma wird hier als Substrat und nicht als Merkmal relevant.

Bei all diesen Bevölkerungsgruppen erfolgt die Einführung an Bedingungen und Stufen und nicht durch einen Hype.

## Was würde diese Ansicht verfälschen?

Jede ernsthafte Zukunftsvision sollte fälschbar sein. Ohne klare Signale, die das Gegenteil beweisen würden, handelt es sich nicht um eine These, sondern um eine Überzeugung. Dies ist direkt für die Produktstrategie von Bedeutung, da der Aufbau einer Zukunft, die nicht eintritt, eher zur eleganten Irrelevanz als zur Akzeptanz führt.

Der bedeutendste Fälscher wären große KI-Plattformen, die Speicher bereitstellen, der wirklich portierbar, überprüfbar, wiederholbar und für alle Tools vertrauenswürdig ist. Kein Speicher im Sinne des Marketings, sondern Speicher, der dem Benutzer gehört, exportierbar, semantisch explizit und kontextübergreifend stabil ist. Wenn der plattformnative Speicher in der Praxis maßgeblich wird (das heißt, Benutzer und Organisationen vertrauen ihm als kanonische Aufzeichnung dessen, was wann bekannt war), bricht der Bedarf an einer externen Wahrheitsebene zusammen. In dieser Welt erodiert die Kerndifferenzierung von Neotoma eher, als dass sie sich verschlimmert.

Ein zweiter Fälscher wäre eine sinnvolle Konsolidierung in einen einzigen dominanten KI-Arbeitsbereich, der durchgängig für Ausführung, Speicher und Tools zuständig ist. Wenn der Fragmentierungsdruck verschwindet, weil eine Oberfläche den Stapel erfolgreich absorbiert, nimmt die Hebelwirkung von Shared-Memory-Substraten stark ab.

Ein dritter Fälscher wäre, dass Agenten nur von kurzer Dauer sind, streng überwacht werden und kostengünstig zurückgesetzt werden können, wobei Fehler weiterhin hauptsächlich durch einen Neustart und nicht durch eine Zustandsdiagnose behoben werden. Wenn lang laufende Agents nicht zum Einsatz kommen und das Zurücksetzen die vorherrschende Wiederherstellungsstrategie bleibt, bleibt der deterministische Speicher optional und nicht notwendig.

Wenn schließlich der Prüfungs- und Haftungsdruck nicht nach unten geht (wenn KI für die meisten Fachleute eher beratend als folgenreich bleibt), bleibt das herkunftsintensive Gedächtnis länger als erwartet übertrieben.

Auf diese Gegensignale zu achten ist ebenso wichtig wie auf die Bestätigung zu achten. Sie warnen frühzeitig, dass die Annahmen, die die Einführung vorantreiben, schwächer werden und dass die Strategie entsprechend angepasst werden sollte. Eine Vision, die nicht verfälscht werden kann, kann nicht korrigiert werden, und ein Produkt, das auf einer solchen Vision aufbaut, läuft Gefahr, für eine Welt konzipiert zu werden, die nie zustande kommt.

## Speicher als kritische, offene Infrastruktur

Dies ist keine Vorhersage, dass sich die Welt philosophisch stärker der Wahrheit oder Richtigkeit verpflichtet fühlt.

Man geht davon aus, dass Agenten zustandsbehaftet werden, Fehler teuer werden, Plattformen undurchsichtig bleiben, Tools fragmentiert bleiben, der Prüfungsdruck zunimmt und die Nutzung teurer wird.

Wenn auch nur ein Teil dieser Entwicklung anhält, hört der Speicher auf, ein UX-Feature zu sein, und wird zu einer Infrastruktur, die zwangsläufig offen ist. In dieser Welt sind Systeme, die das Gedächtnis als deterministischen, inspizierbaren Zustand behandeln, nicht mehr visionär. Sie sind einfach die kostengünstigste Möglichkeit, um zu verhindern, dass komplexe Systeme auf undurchsichtige und unwiederbringliche Weise ausfallen.

Neotoma ist nicht der Treiber dieser Veränderung. Es ist eine plausible Antwort darauf.