## Ce qu'OpenClaw fait bien

OpenClaw (et la vague plus large Claw/Clawdbot) est la première fois que beaucoup de gens ont l'impression de disposer d'une véritable IA personnelle. It runs on your machine. Il a une mémoire persistante. Il peut lire vos textes, gérer votre calendrier, naviguer sur le Web, remplir des formulaires et développer des compétences qui s'améliorent au fur et à mesure que vous l'utilisez.

Le [bull case] de Brandon Wang (https://brandon.wang/2026/clawdbot) est une bonne lecture : extraction de promesses de textes dans des événements de calendrier, alertes de prix avec des critères complexes (par exemple "lit gigogne OK s'il n'est pas dans la même pièce qu'un autre lit"), inventaire du congélateur à partir de photos dans Notion, réservation Resy qui croise votre calendrier avec la disponibilité du restaurant.

The agent *does* things. Il *se souvient* aussi de choses. Context accumulates. C’est le « doux élixir de contexte » dont il parle.

Donc, sur l’axe « l’agent peut-il agir en mon nom et connaître mes préférences », la réponse est oui. L'écart qui m'intéresse est l'autre axe : comment cette mémoire est stockée et si c'est quelque chose auquel vous pouvez faire confiance, rejouer et corriger en cas de problème.

## Où "plus de contexte" atteint le même plafond

Je passe une grande partie de ma vie à travers [un agent (Curseur plus MCP) : e-mail, tâches, finances, contacts, contenu](/posts/agentic-search-and-the-truth-layer). J'ai atteint des limites qui ne concernent pas la récupération ou la taille du modèle. They're about state.

- **Écrase sans annulation.** L'agent met à jour un contact ou fusionne deux tâches. L'état précédent a disparu. Il n'y a pas de versionnage, pas de restauration. Writes are in-place.
- **Aucune provenance.** Lorsque l'agent donne un mauvais numéro ou un mauvais total, je ne peux pas le retracer jusqu'à un enregistrement ou une importation spécifique. Je ne sais pas quelle observation a conduit à quelle réponse.
- **Aucune identité canonique.** « Acme Corp » dans une session et « ACME CORP » dans la suivante peuvent ou non être traités comme la même entité. L'agent réinfère à chaque fois. Il n’existe pas d’identifiants stables ni de règles de fusion.
- **Réponses non déterministes.** Même question ("quelle est ma dépense totale avec le fournisseur X ?"), réponse différente demain. Fichiers manqués, recherche tronquée ou résolution d'entité différente. Aucun moyen de reproduire ou de vérifier.
- **Mémoire liée à l'outil.** Ce que l'agent « sait » vit dans la mémoire de cet outil ou dans le contexte de ce fournisseur. Je ne peux pas utiliser les mêmes contacts et tâches depuis Claude.ai ou ChatGPT. La mémoire n'est pas partagée entre les outils que j'utilise.

Ces limites ne disparaissent pas lorsque l'agent obtient *plus* de capacités ou *plus* de contexte. They get sharper. Plus l'agent fait (calendrier, contacts, tâches, transactions), plus vous avez besoin d'un endroit où cet état est de premier ordre : identité, lignée et capacité de l'interroger de manière déterministe et de le restaurer en cas de panne.

## Quelle couche de vérité ajoute sous un agent comme Claw

Une [couche de vérité](/posts/agentic-search-and-the-truth-layer) ne remplace pas l'agent. C'est la couche *en dessous*. L'agent continue de faire : lire des textes, parcourir, remplir des formulaires, créer des événements de calendrier, développer des compétences. La couche est l'endroit où se trouve l'état résultant et comment il est interrogé.

- **Identité canonique persistante.** Les contacts, tâches, transactions et événements obtiennent des identifiants stables. "Acme Corp" et "ACME CORP" se résolvent en une seule entité par règle, et non par inférence par session.
- **Provenance et audit.** Chaque enregistrement peut être retracé jusqu'à une source (importation, action de l'agent, modification de l'utilisateur) et une heure. Lorsqu’un numéro est erroné, vous pouvez voir d’où il vient.
- **Requêtes déterministes.** "Chaque transaction avec le fournisseur X au cours des deux dernières années" ou "toutes les tâches du projet Y" ont atteint un magasin structuré. Same query, same result. Aucune recherche, aucune troncature, aucune ré-inférence.
- **Récupérabilité.** Lorsque l'agent écrase un contact ou fusionne deux tâches par erreur, vous disposez d'un contrôle de version et d'une piste d'audit. Vous pouvez voir ce qui a changé et revenir en arrière. Mutations are explicit; ce ne sont pas des écrasements silencieux.
- **Vérité multi-outils.** Les mêmes contacts, tâches et plans d'exécution sont disponibles pour Cursor, Claude, ChatGPT ou Claw, via quelque chose comme MCP. Un substrat mémoire, plusieurs agents.

Ainsi, Claw (ou tout autre agent de style Claw) serait toujours propriétaire de la partie « faire » : interpréter l'intention, parcourir, remplir des formulaires, créer des événements, apprendre les flux de travail. La couche de vérité posséderait la partie « se souvenir » : entités canoniques, chronologies, provenance et requêtes idempotentes et rejouables. L'agent écrit dans la couche et y lit. Vous bénéficiez de l'assistance d'un agent qui fait les choses *et* d'une mémoire qui ne dérive pas, ne s'écrase pas sans laisser de trace ou ne provoque pas de désaccord entre les sessions ou les outils.

## Image concrète

Imaginez Claw créant une tâche de suivi après avoir promis quelque chose dans un texte. Aujourd'hui, cela peut vivre dans la mémoire de l'agent ou dans une liste locale. Avec une couche de vérité, cette tâche est une entité de premier ordre : liée à la conversation qui l'a créée, au contact le cas échéant, et à tout projet ou plan d'exécution. Vous pouvez interroger « tous les suivis de la semaine dernière » ou « les tâches liées à ce contact » depuis n'importe quel outil qui communique avec la couche. Si l'agent fusionne ultérieurement deux tâches par erreur, vous disposez d'un historique des modifications et pouvez revenir en arrière.

Ou : Claw vous aide à suivre les dépenses avec un fournisseur. Sans magasin structuré, il recherche à chaque fois les exportations et les e-mails et réinfère la résolution de l'entité. Les totaux peuvent changer. Avec une couche de vérité, les transactions sont normalisées et liées à un identifiant canonique de fournisseur. « Dépenses totales avec le fournisseur X » est une requête et non un assemblage ponctuel. Même question, même réponse. Et si l'agent « corrige » une transaction sur la base d'une inférence erronée, vous disposez d'une piste d'audit et de la possibilité d'annuler.

Brandon mentionne l'écriture de flux de travail sur Notion afin qu'il puisse voir ce que Claw a appris. C'est la visibilité sur le comportement. Une couche de vérité ajoute de la visibilité sur *l'état* : quelles entités existent, comment elles sont liées, d'où elles viennent et comment elles ont changé. C'est le complément de « l'agent a fait quelque chose ». "L'agent a fait quelque chose, et voici l'état qu'il a écrit, avec la lignée et la capacité de le réparer."

## Pourquoi je construis Neotoma de cette façon

Je construis [Neotoma](https://github.com/markmhendrickson/neotoma) en tant que couche de mémoire structurée avec ces primitives : résolution d'entité, chronologies, provenance, déterminisme et accès multiplateforme via MCP. Je le mets en dogfood dans ma propre pile d'agents pour voir où ils comptent. La leçon de ce travail est que [la récupération (basée sur l'intégration ou agentique)](/posts/agentic-search-and-the-truth-layer) et "plus de contexte" ne vous donnent pas à eux seuls une identité stable, un état vérifiable ou une capacité de récupération. Quelque chose qui doit se trouver en dessous. OpenClaw et son écosystème prouvent que les agents peuvent faire beaucoup de choses. Je pense que la prochaine étape consiste à s'assurer que ce qu'ils font est fondé sur une couche de mémoire à laquelle vous pouvez faire confiance, interroger et corriger. C'est la couche que je construis.