[Claude verlagert seinen Speicher auf den kostenlosen Plan](https://x.com/claudeai/status/2028559427167834314) ist ein echter Meilenstein. Es bestätigt, dass Speicher jetzt eine Kernproduktoberfläche und kein Premium-Edge-Feature ist.

Das sind großartige Neuigkeiten.

Die schwierigere Frage ist, was „Speicher“ eigentlich bedeutet, wenn man sich bei der eigentlichen Arbeit darauf verlässt. Ich teste seit Monaten das Gedächtnis sowohl bei Claude als auch bei ChatGPT. Es tauchen immer wieder zwei Probleme auf.

## Was der Speicher tatsächlich speichert

Sowohl Claude als auch ChatGPT verwenden das Wort „Erinnerung“ in einer Weise, die Menschen davon ausgehen lässt, dass bedeutungsvolle Details in Gesprächen vollständig erhalten bleiben. Die Realität sieht anders aus. Was diese Plattformen als Erinnerung bezeichnen, ähnelt eher einem Profil als einer Aufzeichnung dessen, woran Sie gearbeitet haben.

Was diese Systeme speichern, ähnelt eher komprimierten Profilausschnitten. Sie beobachten Ihre Gespräche und ermitteln eine Handvoll Fakten darüber, wer Sie sind und wie Sie am liebsten arbeiten. Claude scheint das am besten zu können. Für jeden Chat werden einige Beobachtungen gemacht, hauptsächlich über Ihre Identität als Profi, Ihre Stilvorlieben und wie Sie gerne mit KI interagieren. ChatGPT tendiert, zumindest meiner Erfahrung nach, dazu, diese Snippets nur dann zu speichern, wenn Sie es ausdrücklich dazu auffordern.

![Claude-Speicherexport mit Snippets auf Profilebene ohne Datum](/images/posts/your-ai-remembers-your-vibe-but-not-your-work-claude-memory-export.png)

Diese Funktionen erfassen keine detaillierten Details zu den Dingen, an denen Sie tatsächlich gearbeitet haben.

Wenn ich über meine Fitnessroutine, die Übungen, die ich gemacht habe, und die Statistiken zur Körperzusammensetzung, die ich verfolgt habe, spreche, fasst das System zusammen, dass ich „in Fitness“ stehe. Die tatsächlichen Daten über meine Gesundheitsentwicklung werden nicht gespeichert. Wenn ich eine Finanzanalyse oder eine Reihe von Projektaufgaben durcharbeite, stellt das System möglicherweise fest, dass mir diese Bereiche am Herzen liegen. Die Einzelheiten bleiben nicht erhalten.

Die allgemeine Behauptung, dass sich diese Agenten an den „Kontext“ erinnern, den Sie ihnen gegeben haben, ist hilfreich, aber eng gefasst. Es ist gut für die Vertrautheit. Dadurch fühlen sich Gespräche natürlicher an. Es gibt keine Garantie dafür, dass ein Agent detaillierte Fragen zu früheren Arbeiten beantworten oder zuverlässig dort weitermachen kann, wo Sie aufgehört haben.

Das Ergebnis ist so etwas wie ein Freund, der die Details von allem, worüber Sie gesprochen haben, vergisst, aber eine vage Vorstellung davon hat, wer Sie als Person sind. Das ist nützlich für ein reibungsloseres Gespräch. Es ist nicht sinnvoll, laufende Arbeiten zu delegieren.

## Wo die Portabilität zusammenbricht

Claude machte neben seiner Speicherfreigabe ein überzeugendes Angebot: [Importieren Sie Ihren Speicher aus anderen Diensten](https://claude.com/import-memory). Die Idee ist einfach. Fragen Sie Ihren alten Assistenten, was er über Sie weiß, kopieren Sie die Ausgabe und übertragen Sie sie in Claude.

Als UX ist das klug. Als Infrastruktur geht es schnell kaputt.

Ich habe dies mit ChatGPT getestet. Als ich die Claude-Export-Eingabeaufforderung zum ersten Mal in einem regulären, nicht projektbezogenen Chat verwendete, antwortete ChatGPT mit den gespeicherten Speicherausschnitten. Aber es handelte sich größtenteils um veraltete Einträge, viele aus dem Jahr 2024, und fast keiner spiegelte meine jüngsten Arbeiten oder Interaktionen aus diesem Jahr wider. Es gab keine Anzeichen dafür, dass das System aus den Hunderten von Gesprächen, die ich in den letzten Monaten geführt habe, automatisch etwas Neues gelernt hätte.

![ChatGPT gespeicherte Erinnerungen zeigen veraltete Einträge auf Oberflächenebene](/images/posts/your-ai-remembers-your-vibe-but-not-your-work-chatgpt-saved-memories.png)

Der Cross-Chat-Kontext von ChatGPT, bei dem Informationen von einem Thread in einem anderen auftauchen, erschien im Export überhaupt nicht. Es kamen nur die diskreten, explizit gespeicherten Speichereinträge durch.

Als ich in nachfolgenden Nicht-Projekt-Chats genau dieselbe Exportaufforderung erneut versuchte, lehnte ChatGPT dies vollständig ab. Die Speicherliste würde kein zweites Mal erstellt. Selbst der Teilexport, den ich erhalten habe, war also ein einmaliges Ergebnis.

![ChatGPT weigert sich, Speicher zu exportieren und listet interne Kategorien als nicht exportierbar auf](/images/posts/your-ai-remembers-your-vibe-but-not-your-work-chatgpt-export-denied.png)

Bei projektbasierten Chats war die Situation noch schlimmer. Als ich dieselbe Eingabeaufforderung in einem ChatGPT-Projekt verwendete, weigerte es sich von Anfang an, Speicher zu exportieren. Stattdessen wurde ich zur Exportfunktion für Massenkonversationen weitergeleitet. Mit dieser Funktion erhalten Sie einen Rohdaten-Dump und keinen strukturierten Kontext. Sie erhalten Dateien zum Herunterladen und können es selbst herausfinden.

![ChatGPT-Ablehnung: kein Dump von Erinnerungen oder internem Kontext](/images/posts/your-ai-remembers-your-vibe-but-not-your-work-chatgpt-refusal-no-dump.png) ![ChatGPT, was Sie exportieren können: Kontodaten und Unterscheidung von internen Zusammenfassungen](/images/posts/your-ai-remembers-your-vibe-but-not-your-work-chatgpt-export-what-you-can.png)

Die Portabilitätsgeschichte weist also an beiden Enden eine Lücke auf. Die Quellplattform kontrolliert, was und wo sie offenlegt. Die Zielplattform kann nur das aufnehmen, was tatsächlich durchkommt. Wenn die Exporte teilweise, veraltet und oberflächenabhängig sind, ist „Portabilität“ eine bestmögliche Übertragung und keine zuverlässige staatliche Migration.

## Drei Kategorien verbergen sich unter einem Wort

Ich denke, dass der Markt unter dem Wort „Speicher“ mindestens drei verschiedene Dinge zusammenbricht.

Das erste ist das Komfortgedächtnis. Profilausschnitte, die Interaktionen erleichtern, Wiederholungen vermeiden und zur Personalisierung beitragen. Dadurch fühlen sich Chatbots weniger staatenlos. Das ist es, was Claude und ChatGPT heute versenden, und es ist das, was in den ersten beiden Abschnitten dieses Beitrags beschrieben wird.

Das zweite ist das durch Abruf erweiterte Gedächtnis. Einige Plattformen tun dies in gewissem Umfang bereits, indem sie frühere Gesprächsprotokolle als Dateien behandeln und sie bei Bedarf durchsuchen. Im weiteren Sinne verwendet der Agent eine Agentensuche oder eine einbettungsbasierte Suche in Ihren Dateien, E-Mails und Tools, um den Kontext anzuzeigen, wenn Sie ihn anfordern. Es kann antworten: „Was haben wir in den letzten drei E-Mails entschieden?“ oder „Finden Sie etwas über die Wohnung in Barcelona heraus.“ Das ist ein Fortschritt gegenüber Profilausschnitten. Aber [agentic retrieval folgert; es gibt keine Garantie](/posts/agentic-search-and-the-truth-layer). Es gibt keinen dauerhaften kanonischen Zustand, keine Herkunft, keine sitzungsübergreifende Konsistenz. Dieselbe Frage kann beim nächsten Mal zu einer anderen Antwort führen. Es ist ein Mittelweg: besser als Komfortspeicher für echte Arbeit, kein Ersatz für dauerhaften Zustand.

Der dritte ist der dauerhafte Betriebsspeicher. Es handelt sich um einen typisierten, deterministischen und überprüfbaren Zustand, der Werkzeugänderungen, Plattformwechsel und Workflow-Grenzen überstehen kann. Es ist das, was Sie brauchen, wenn Agenten beginnen, wiederkehrende Aufgaben, Kontakte, Verpflichtungen und Transaktionen in Ihrem Namen abzuwickeln.

Alle drei sind wichtig. Sie sind nicht austauschbar, und wenn man sie in einem Wort zusammenfasst, entsteht ein [Wahrheitsproblem](/posts/agent-memory-truth-problem), sobald Sie für die tatsächliche Arbeit auf eines von ihnen angewiesen sind.

Komfortspeicher übertrifft das Chat-Erlebnis. Retrieval gewinnt explorative, einmalige Fragen. Der dauerhafte Speicher gewinnt die darunter liegende Zustandsschicht.

## Wie Neotoma anders damit umgeht

Ich baue Neotoma für die dritte Kategorie. Ich habe bereits über den Aufbau einer Wahrheitsschicht für den persistenten Agentenspeicher geschrieben (/posts/truth-layer-agent-memory).

Der wesentliche Designunterschied besteht darin, dass Neotoma den Speicher als explizite, benutzereigene Dateninfrastruktur und nicht als undurchsichtiges Nebenprodukt von Chat-Interaktionen behandelt.

**Entitäten statt Snippets.** Jeder Kontext in Neotoma ist eine strukturierte Entität mit einem Typ, Eigenschaften und Beziehungen zu anderen Entitäten. Ein Kontakt ist ein Kontakt. Eine Aufgabe ist eine Aufgabe. Eine Finanzakte ist eine Finanzakte. Sie sind nicht in einer Tüte natürlichsprachlicher Zusammenfassungen darüber zusammengefasst, „was den Benutzer interessiert“. Wenn ein Agent etwas speichert, speichert er einen typisierten Datensatz. Wenn ein Agent etwas abruft, erhält er ein deterministisches Ergebnis zurück, keine probabilistische Rekonstruktion.

**Provenienz auf jeder Tatsache.** Jede Beobachtung in Neotoma verfolgt, woher sie stammt und wann sie aufgezeichnet wurde. Wenn zwei Agenten Informationen über dieselbe Entität beisteuern, ist jeder Beitrag separat nachverfolgbar. Es gibt keine Blackbox. Sie können jeden Sachverhalt bis zu seiner Quelle überprüfen.

**Toolübergreifender Zugriff über MCP.** Neotoma stellt seine Daten über das Model Context Protocol bereit, was bedeutet, dass jeder MCP-kompatible Agent auf derselben Wahrheitsschicht lesen und schreiben kann. Ich benutze es täglich. Die gleichen Daten, die ich über Cursor ausfülle, stehen Claude, ChatGPT und jedem zukünftigen Tool zur Verfügung, das MCP spricht. Es gibt keinen Exportschritt. Es gibt kein Kopieren und Einfügen. Die Daten sind einfach da, zugänglich und konsistent, unabhängig davon, mit welchem ​​Agent ich gerade arbeite.

**Kein Plattform-Gating.** Im ChatGPT-Modell lebt der Speicher innerhalb der Plattform und die Plattform entscheidet, was sie wo und an wen offenlegt. In Neotoma ist der Benutzer Eigentümer des Datenspeichers. Keine Plattform kann den Export verweigern, da sie nie an eine solche gebunden war.

**Inkrementell und zusammensetzbar.** Agenten können im Laufe der Zeit Beobachtungen zu vorhandenen Entitäten hinzufügen. Wenn mir ein Agent dieses Jahr bei den Steuern hilft, kann ein anderer Agent auf einer anderen Plattform im nächsten Jahr die gleichen strukturierten Datensätze übernehmen. Das Wissen verdichtet sich, statt es zurückzusetzen.

Dadurch entsteht eine saubere Trennung. Chat-Schnittstellen können hinsichtlich Interaktionsqualität, Persönlichkeit und UX kontinuierlich optimiert werden. Die darunter liegende Wahrheitsschicht sorgt für Zuverlässigkeit, Vollständigkeit und Kontrolle. Wenn sich ein Modell oder eine Schnittstelle ändert, verändert sich der zugrunde liegende Zustand nicht.

## Wohin das meiner Meinung nach führt

Kurzfristig werden die meisten Benutzer weiterhin Plattformspeicher verwenden. Das sollten sie. Es verbessert sich und der Chat fühlt sich besser an.

Parallel dazu wird jeder, der ernsthafte Agenten-Workflows erstellt, auf die gleichen Lücken stoßen, auf die ich gestoßen bin: teilweiser Rückruf, veraltete Exporte, oberflächenabhängiges Verhalten, halluzinierter Kontext. Diese Probleme werden teurer, je mehr Verantwortung Sie delegieren. Ich habe separat über die [sechs strukturellen Trends](/posts/six-agentic-trends-betting-on) geschrieben, die diese Kluft mit der Zeit größer machen: Agenten werden zustandsbehaftet, Fehler werden bepreist, Plattformen bleiben undurchsichtig, Tools bleiben fragmentiert.

Das Muster, das ich erwarte, ist, dass Wahrheitsebenen unter der Chat-Ebene erscheinen. Zunächst schrittweise, dann als offensichtliche Infrastruktur.

Dass Claude seinen Speicher frei macht, treibt die gesamte Kategorie voran. Meine Tests verdeutlichen lediglich, wo die Grenze liegt. Der Plattformspeicher verbessert die Gesprächsqualität. Es bietet noch kein zuverlässiges Substrat für die kontextübergreifende und langfristige Arbeit von Agenten.

Um diese Lücke zu füllen, baue ich [Neotoma](/posts/neotoma-developer-release). Die Entwicklerversion ist ab sofort unter [neotoma.io](https://neotoma.io) verfügbar und ich heiße Tester aktiv willkommen.