[Claude déplace la mémoire vers le forfait gratuit](https://x.com/claudeai/status/2028559427167834314) est une véritable étape. Cela confirme que la mémoire est désormais une surface essentielle du produit, et non une fonctionnalité premium.

Cette partie est une excellente nouvelle.

La question la plus difficile est de savoir ce que signifie réellement la « mémoire » une fois que vous en dépendez pour votre travail réel. Je teste la mémoire sur Claude et ChatGPT depuis des mois. Deux problèmes continuent d’apparaître.

## Ce que la mémoire stocke réellement

Claude et ChatGPT utilisent tous deux le mot « mémoire » d'une manière qui amène les gens à supposer que les détails significatifs sont entièrement conservés dans les conversations. La réalité est différente. Ce que ces plateformes appellent mémoire est plus proche d’un profil que d’un enregistrement de ce sur quoi vous avez travaillé.

Ce que ces systèmes stockent est plus proche des extraits de profil condensés. Ils observent vos conversations et distillent une poignée de faits sur qui vous êtes et comment vous préférez travailler. Claude semble faire cela de mieux. Pour chaque chat, il produit quelques observations, principalement sur votre identité en tant que professionnel, vos préférences de style, la façon dont vous aimez interagir avec l'IA. ChatGPT, du moins d'après mon expérience, a tendance à enregistrer ces extraits uniquement lorsque vous le lui demandez explicitement.

![Exportation de mémoire de Claude affichant des extraits de profil sans date](/images/posts/your-ai-remembers-your-vibe-but-not-your-work-claude-memory-export.png)

Ces fonctionnalités ne capturent pas de détails granulaires sur les éléments sur lesquels vous avez réellement travaillé.

Si j'ai une conversation sur ma routine de remise en forme, les exercices que j'ai effectués, les statistiques de composition corporelle que j'ai suivies, le système résumera que je suis « en forme ». Il ne stockera pas les données réelles sur l’évolution de ma santé. Si je travaille sur une analyse financière ou un ensemble de tâches de projet, le système peut noter que je me soucie de ces domaines. Il ne retiendra pas les détails.

L'affirmation générale selon laquelle ces agents se souviennent du « contexte » que vous leur avez donné est utile mais étroite. C'est bon pour la familiarité. Cela rend les conversations plus naturelles. Cela ne garantit pas qu'un agent puisse répondre à des questions détaillées sur son travail antérieur ou reprendre de manière fiable là où vous l'avez laissé.

Le résultat est quelque chose comme un ami qui oublie les détails de tout ce dont vous avez parlé mais qui a une vague idée de qui vous êtes en tant que personne. C’est utile pour une conversation plus fluide. Ce n’est pas utile pour déléguer un travail en cours.

## Là où la portabilité échoue

Claude a fait une offre intéressante parallèlement à sa libération de mémoire : [importez votre mémoire à partir d'autres services](https://claude.com/import-memory). L'idée est simple. Demandez à votre ancien assistant ce qu'il sait de vous, copiez le résultat et transférez-le dans Claude.

En tant qu'UX, c'est intelligent. En tant qu'infrastructure, elle se brise rapidement.

J'ai testé cela avec ChatGPT. La première fois que j'ai utilisé l'invite d'exportation Claude dans une discussion régulière hors projet, ChatGPT a répondu avec les extraits de mémoire qu'il avait enregistrés. Mais il s’agissait pour la plupart d’entrées obsolètes, la plupart datant de 2024, et presque aucune ne reflétait mon travail récent ou mes interactions de cette année. Rien n’indiquait que le système avait automatiquement appris quelque chose de nouveau des centaines de conversations que j’avais eues au cours des derniers mois.

![ChatGPT a enregistré des souvenirs affichant des entrées obsolètes au niveau de la surface](/images/posts/your-ai-remembers-your-vibe-but-not-your-work-chatgpt-saved-memories.png)

Le contexte de discussion croisée de ChatGPT, dans lequel les informations d'un fil de discussion apparaissent dans un autre, n'apparaît pas du tout dans l'exportation. Seules les entrées de mémoire discrètes et explicitement enregistrées sont parvenues.

Lorsque j'ai réessayé exactement la même invite d'exportation dans les discussions ultérieures hors projet, ChatGPT a complètement refusé. Il ne produirait pas la liste de mémoire une seconde fois. Ainsi, même l’exportation partielle que j’ai obtenue était un résultat unique.

![ChatGPT refuse d'exporter la mémoire, répertoriant les catégories internes comme non exportables](/images/posts/your-ai-remembers-your-vibe-but-not-your-work-chatgpt-export-denied.png)

Dans les discussions basées sur des projets, la situation était encore pire. Lorsque j'ai utilisé la même invite dans un projet ChatGPT, il a refusé d'exporter la mémoire dès le début. Au lieu de cela, il m'a redirigé vers la fonctionnalité d'exportation groupée de conversations. Cette fonctionnalité vous offre un vidage de données brutes, et non un contexte structuré. Vous obtenez des fichiers à télécharger et à comprendre par vous-même.

![Refus de ChatGPT : pas de dump de souvenirs ou de contexte interne](/images/posts/your-ai-remembers-your-vibe-but-not-your-work-chatgpt-refusal-no-dump.png) ![ChatGPT ce que vous pouvez exporter : données de compte et distinction des données internes résumés](/images/posts/your-ai-remembers-your-vibe-but-not-your-work-chatgpt-export-what-you-can.png)

L’histoire de la portabilité présente donc un écart aux deux extrémités. La plateforme source contrôle ce qu’elle divulgue et où. La plateforme cible ne peut ingérer que ce qui passe réellement. Si les exportations sont partielles, périmées et dépendantes de la surface, la « portabilité » est un transfert au mieux et non une migration étatique fiable.

## Trois catégories cachées sous un seul mot

Je pense que le marché regroupe au moins trois éléments distincts sous le mot « mémoire ».

Le premier est la mémoire pratique. Des extraits de profil qui facilitent les interactions, évitent les répétitions et facilitent la personnalisation. Les chatbots se sentent ainsi moins apatrides. C'est ce que Claude et ChatGPT proposent aujourd'hui, et c'est ce que décrivent les deux premières sections de cet article.

La seconde est la mémoire augmentée par récupération. Certaines plates-formes le font déjà dans une certaine mesure en traitant les transcriptions de conversations passées comme des fichiers et en les recherchant à la demande. Plus largement, l'agent utilise la recherche agentique ou la recherche basée sur l'intégration dans vos fichiers, courriers et outils pour faire apparaître le contexte lorsque vous le demandez. Il peut répondre « qu'avons-nous décidé dans les trois derniers e-mails ? » ou "trouver quelque chose sur l'appartement de Barcelone". C’est une avancée par rapport aux extraits de profil. Mais [la récupération agentique déduit ; cela ne garantit pas](/posts/agentic-search-and-the-truth-layer). Il n'y a pas d'état canonique persistant, pas de provenance, pas de cohérence entre les sessions. La même question peut donner une réponse différente la prochaine fois. Il s’agit d’un juste milieu : mieux qu’une mémoire pratique pour un travail réel, et non un substitut à un état durable.

Le troisième est la mémoire opérationnelle durable. Il s’agit d’un état typé, déterministe et auditable qui peut survivre aux changements d’outils, aux changements de plate-forme et aux limites du flux de travail. C'est ce dont vous avez besoin lorsque les agents commencent à gérer des tâches, des contacts, des engagements et des transactions récurrents en votre nom.

Les trois comptent. Ils ne sont pas interchangeables, et les regrouper en un seul mot crée un [problème de vérité](/posts/agent-memory-truth-problem) dès que vous dépendez de l'un d'entre eux pour un vrai travail.

La mémoire pratique gagne l'expérience de chat. La récupération remporte les questions exploratoires et ponctuelles. La mémoire durable gagne la couche d'état en dessous.

## Comment Neotoma gère cela différemment

Je construis Neotoma pour la troisième catégorie. J'ai déjà écrit sur [la création d'une couche de vérité pour la mémoire persistante de l'agent](/posts/truth-layer-agent-memory).

La principale différence de conception réside dans le fait que Neotoma traite la mémoire comme une infrastructure de données explicite appartenant à l'utilisateur plutôt que comme un sous-produit opaque des interactions de chat.

**Des entités au lieu d'extraits.** Chaque élément de contexte dans Neotoma est une entité structurée avec un type, des propriétés et des relations avec d'autres entités. Un contact est un contact. Une tâche est une tâche. Un dossier financier est un dossier financier. Ils ne sont pas regroupés dans un sac de résumés en langage naturel sur « ce qui intéresse l’utilisateur ». Lorsqu'un agent stocke quelque chose, il stocke un enregistrement tapé. Lorsqu’un agent récupère quelque chose, il obtient un résultat déterministe et non une reconstruction probabiliste.

**Provenance de chaque fait.** Chaque observation dans Neotoma indique d'où elle vient et quand elle a été enregistrée. Si deux agents fournissent des informations sur la même entité, chaque contribution est traçable séparément. Il n’y a pas de boîte noire. Vous pouvez vérifier n’importe quel fait jusqu’à sa source.

**Accès multi-outils via MCP.** Neotoma expose ses données via le Model Context Protocol, ce qui signifie que tout agent compatible MCP peut lire et écrire sur la même couche de vérité. Je l'utilise quotidiennement. Les mêmes données que je remplis via Cursor sont disponibles pour Claude, pour ChatGPT et pour tout futur outil parlant MCP. Il n’y a pas d’étape d’exportation. Il n'y a pas de copier-coller. Les données sont là, accessibles et cohérentes quel que soit l'agent avec lequel je travaille.

**Pas de contrôle de plateforme.** Dans le modèle ChatGPT, la mémoire réside à l'intérieur de la plateforme et celle-ci décide quoi divulguer, où et à qui. Dans Neotoma, l'utilisateur est propriétaire du magasin de données. Aucune plateforme ne peut refuser de l’exporter car elle n’y a jamais été verrouillée.

**Incrémentiel et composable.** Les agents peuvent ajouter des observations aux entités existantes au fil du temps. Si un agent m'aide avec les impôts cette année, un autre agent sur une plateforme différente l'année prochaine pourra récupérer les mêmes dossiers structurés. Les connaissances s’accumulent au lieu de se réinitialiser.

Cela crée une séparation nette. Les interfaces de chat peuvent continuer à optimiser la qualité de l'interaction, la personnalité et l'UX. La couche de vérité en dessous optimise la fiabilité, l'exhaustivité et le contrôle. Lorsqu'un modèle ou une interface change, l'état sous-jacent ne dérive pas avec lui.

## Où je pense que cela mène

À court terme, la plupart des utilisateurs continueront à utiliser la mémoire de la plateforme. Ils devraient. Cela s’améliore et le chat se sent mieux.

En parallèle, quiconque crée des flux de travail d'agent sérieux se heurtera aux mêmes lacunes que moi : rappel partiel, exportations obsolètes, comportement dépendant de la surface, contexte halluciné. Ces problèmes deviennent de plus en plus coûteux à mesure que vous déléguez davantage de responsabilités. J'ai écrit séparément sur les [six tendances structurelles](/posts/six-agentic-trends-betting-on) qui creusent cet écart au fil du temps : les agents deviennent dynamiques, les erreurs deviennent tarifées, les plateformes restent opaques, les outils restent fragmentés.

Le schéma auquel je m'attends est que les couches de vérité apparaissent sous la couche de discussion. Au début progressivement, puis au fur et à mesure des infrastructures.

Claude libérant la mémoire fait avancer toute la catégorie. Mes tests clarifient simplement où se trouve la limite. La mémoire de la plateforme améliore la qualité des conversations. Il ne constitue pas encore un substrat fiable pour le travail des agents dans plusieurs contextes et à long terme.

Cette lacune est ce que je construis [Neotoma](/posts/neotoma-developer-release) pour combler. La version développeur est maintenant disponible sur [neotoma.io](https://neotoma.io), et j'accueille activement les testeurs.