À l’heure actuelle, toutes les personnes impliquées dans l’IA tentent, implicitement ou explicitement, de prédire où vont les choses et comment ces changements vont remodeler nos vies et notre travail. Le volume des spéculations est énorme et pour la plupart contradictoire. C'est inévitable. Personne ne peut savoir avec certitude ce que nous réservent les prochaines années. L’espace évolue trop rapidement, les interactions entre les technologies sont trop complexes et les effets de second ordre dominent d’une manière difficile à modéliser à l’avance.

Pourtant, si vous évoluez dans cet espace, surtout si vous construisez quelque chose avec ou pour l’IA, il ne suffit pas de rester agnostique. Vous devez choisir un ensemble de thèses fondamentales sur la manière dont le monde est susceptible d’évoluer et de se construire de manière cohérente autour d’elles, sachant que certaines seront fausses et que d’autres auront plus d’importance que prévu. Ces thèses portent moins sur des prévisions précises que sur l’identification de pressions structurelles qui semblent peu susceptibles de s’inverser.

Ce qui suit sont les hypothèses centrales sur lesquelles je travaille actuellement. Il ne s’agit pas d’affirmations sur l’inévitabilité, et elles ne visent pas à couvrir tous les futurs possibles. Ce sont ces tendances qui, si elles se poursuivent, même partiellement, détermineront la façon dont je pense que les systèmes d’IA seront utilisés, où les frictions s’accumuleront et quels types d’infrastructures deviendront nécessaires. Mon travail ([Neotoma](/posts/truth-layer-agent-memory), une couche de vérité) est mieux compris comme une réponse à ces hypothèses. Ce n’est pas leur raison, mais elle se construit en prévision du monde qu’ils impliquent.

## 1. Les agents deviendront des acteurs économiques étatiques

Au cours des deux prochaines années, les agents iront probablement au-delà des interactions d’assistance centrées sur l’invite et deviendront des acteurs significatifs avec un état. Aucune percée dans l’intelligence générale n’est requise. Une inférence moins coûteuse, des API d’outils plus performantes et une tolérance plus large pour les agents exécutés sans surveillance suffisent.

Le changement sociétal est réel. Nous sommes habitués à des outils qui ne font rien tant que nous n’agissons pas. Lorsque les agents persistent à atteindre leurs objectifs, se coordonnent les uns avec les autres et prennent des mesures irréversibles au fil du temps, la question de savoir qui est responsable devient plus difficile à répondre. Une plus grande part du travail est déléguée à des acteurs non humains ; [la frontière](/posts/we-are-all-centaurs-now) entre « j'ai fait ça » et « mon agent a fait ça » s'adoucit. Les normes autour de la confiance, de la responsabilité et de la dépendance devront s’adapter. La technologie permet le changement ; la société doit décider comment vivre avec cela.

Pourquoi cette tendance est-elle probable ? Le coût marginal du maintien en vie des agents s’effondre plus rapidement que le coût de la reconstruction du contexte. À mesure que l’inférence devient moins chère et que l’orchestration évolue, il est plus efficace de conserver l’état d’un agent que de le reconstruire à partir de zéro. Les API d'outils supposent de plus en plus de continuité : informations d'identification, caches, artefacts intermédiaires. La persévérance est récompensée par rapport à l’apatridie.

Dans ce monde, la mémoire cesse d’être une fonctionnalité pratique. Il devient partie intégrante de l'état du système, comparable à une base de données plutôt qu'à un journal de discussion. Lorsque cet état est approprié et digne de confiance, de nouvelles choses deviennent possibles à grande échelle : des plans à long terme qui s'étendent sur des jours ou des semaines, une coordination entre de nombreux agents et outils, et un travail délégué qui n'est réalisable que lorsque l'état peut être fiable et étendu dans le temps.

Neotoma est conçu pour cela. Il traite la mémoire comme un état explicite du système : des entités, des événements et des relations typés dans un graphe déterministe, sans inviter de résidus ou d'intégration de similarité. L'historique d'un agent peut être relu, inspecté et raisonné dans le cadre du système lui-même.

Ce qu’il faut surveiller l’année prochaine :
1. Les frameworks d'agent annoncent une exécution de longue durée, en arrière-plan ou avec reprise en tant que fonctionnalité principale.
2. Les équipes discutent de la corruption ou de la dérive de l'état des agents en tant que classe de bogues distincte plutôt que du redémarrage des agents en tant que correctif.
3. Interfaces de produits exposant l’historique des agents comme quelque chose d’inspectable plutôt qu’éphémère.
4. Équipes exécutant plusieurs agents qui ont besoin d’une source unique de vérité pour les entités et les décisions.

## 2. Les erreurs agents deviendront économiquement visibles

À mesure que les résultats de l’IA sont de plus en plus directement affectés à la facturation, à la conformité, aux livrables clients et aux flux de travail automatisés, le coût des erreurs est susceptible d’évoluer. Ce qui est actuellement un inconvénient diffus devient un impact économique explicite.

Lorsque des erreurs commencent à apparaître dans les autopsies, les contrats et les dossiers judiciaires, la société obtient une idée plus précise de qui en supporte le coût et qui est blâmé. Les organisations seront confrontées à des pressions pour prouver comment les décisions ont été prises et ce que le système savait à ce moment-là. Cette pression se répercutera sur les normes professionnelles, les assurances et la réglementation. Les individus et les petites équipes peuvent être tenus de respecter des normes initialement conçues pour les grandes institutions disposant de pistes d'audit. L’avantage est une plus grande responsabilisation et moins d’échecs silencieux. L’inconvénient est que la barre des critères « explicable » et « auditable » peut augmenter plus rapidement que beaucoup ne sont prêts à le faire.

La raison structurelle probable de cette tendance est que l’IA se rapproche des niveaux décisionnels, et non plus seulement des niveaux consultatifs. À mesure que les résultats de l’IA sont intégrés en aval dans les systèmes qui déclenchent des paiements, des engagements ou des communications externes, les erreurs héritent de la structure de coûts de ces systèmes. Les organisations ne peuvent pas continuer à traiter les échecs comme des « bizarreries de modèle » une fois qu’ils se sont propagés en actions irréversibles.

Aujourd’hui, les erreurs sont souvent ignorées grâce à une régénération ou à des ajustements rapides. Demain, ces mêmes erreurs gaspilleront de l’argent, porteront atteinte à la réputation ou créeront des risques juridiques.

Lorsque les erreurs sont tarifées, les organisations cessent de se demander si les résultats ont été utiles. Ils commencent à se demander comment ces résultats ont été produits, sur quelles informations ils se sont appuyés et si le processus peut être rejoué ou audité.

En corollaire, la tolérance à l’égard d’une mémoire approximative ou ambiguë s’érode. La barre de ce qui est considéré comme assez bon s’élève d’abord là où le préjudice est visible, puis cette norme dérive vers l’extérieur. Une fois que les erreurs sont coûteuses, la mémoire que vous pouvez corriger et tracer devient une infrastructure et non une commodité.

Neotoma s'aligne sur ce changement en appliquant la provenance au niveau de la couche mémoire. Les faits sont stockés avec l'attribution de la source, les horodatages et les événements d'ingestion. Les corrections sont additives plutôt que destructives, permettant aux équipes de reconstruire exactement ce qu'un agent savait au moment de prendre une décision au lieu de deviner sur la base de journaux partiels.

Ce qu’il faut surveiller l’année prochaine :
1. Les échecs liés à l’IA apparaissant dans les post-mortems, les litiges clients ou les contextes juridiques.
2. Les équipes demandent explicitement « que savait l'agent à ce moment-là ? » après les erreurs.
3. Des exigences de traçabilité ou d’audit ajoutées rétroactivement aux flux de travail de l’IA.
4. Incidents publics attribués à des erreurs de mémoire de l'IA ; le langage passe de « hallucination » à « défaillance du système » dans les post-mortems.
5. Les équipes demandent « d'annuler ce fait » ou de « revenir sur ce que croit l'agent » sans réinitialisation complète.
6. « Que croit le système et comment a-t-il évolué ? formulé comme une requête sur un graphique cohérent plutôt que comme un appel RAG.

## 3. L'audit et la conformité vont dériver vers le bas du marché

Une tendance connexe : la pression visant à prouver comment le travail a été produit et ce que le système savait ne restera pas confinée aux grandes entreprises. Partout où les erreurs entraînent un coût réel – économique, juridique ou de réputation – l’exigence de défense et de tenue de registres s’ensuit. À mesure que l’IA s’intègre dans le travail professionnel, les consultants, les agences, les indépendants réglementés et les petites équipes natives de l’IA seront confrontés aux mêmes attentes.

La raison structurelle est la diffusion de la responsabilité. À mesure que l’utilisation de l’IA se normalise, la responsabilité ne disparaît pas. Cela se propage. Les clients, les assureurs et les régulateurs réagissent en recherchant des contrôles compensatoires. La pression de l’audit diminue non pas parce que les petites équipes le souhaitent, mais parce que le risque suit l’utilisation.

Une fois que les questions sur la manière dont l’œuvre a été produite sont devenues routinières, la mémoire sans provenance devient un handicap plutôt qu’une commodité. Les délais structurés, le rappel au niveau de l'entité et l'attribution des sources commencent à fonctionner comme une infrastructure défensive.

Neotoma s'aligne sur ce changement en traitant la mémoire comme quelque chose qui peut être reconstruit dans le temps plutôt que déduit rétrospectivement. La résolution des entités, l'ordre temporel et la provenance ne sont pas des ajouts. Ils sont au cœur du modèle.

Ce qu’il faut surveiller l’année prochaine :
1. Divulgations sur l’utilisation de l’IA apparaissant dans les contrats, les énoncés de travail ou les directives professionnelles.
2. Demandes de documentation des décisions assistées par l'IA de la part de clients ou d'assureurs.
3. Des individus ou de petites équipes stockent de manière proactive et défensive les enregistrements d’interactions avec l’IA.
4. Une réglementation qui exige explicitement la tenue de registres ou l’explicabilité pour certaines utilisations de l’IA.

## 4. La mémoire de la plateforme restera opaque

Les grandes plates-formes d’IA continueront probablement à proposer des fonctionnalités de mémoire utiles mais fondamentalement opaques. Leurs incitations favorisent l'engagement, la rétention et l'optimisation du modèle plutôt que la provenance contrôlée par l'utilisateur ou les garanties d'exactitude.

L’effet sociétal est une division entre ceux qui peuvent se permettre de se soigner et ceux qui ne le peuvent pas. Les personnes et les organisations qui ont besoin de garanties solides (audit, exactitude, portabilité) paieront pour des alternatives, construiront les leurs ou accepteront des risques. Tout le monde s’appuiera sur la mémoire de la plateforme et vivra avec le manque de confiance. Cette fracture peut renforcer les inégalités existantes. Les personnes disposant de ressources suffisantes disposent d’une mémoire transparente et portable ; tout le monde bénéficie de conditions opaques. Au fil du temps, les normes sur ce que signifient « mes données » et « mon historique » peuvent diverger selon le contexte et selon qui vous êtes. Les attentes civiques et professionnelles (par exemple, que vous puissiez montrer votre travail ou exporter vos documents) peuvent s'appliquer uniquement à certains.

La raison structurelle pour laquelle cela persiste est le [désalignement des incitations](/posts/building-structural-barriers). Les plates-formes sont optimisées pour des résultats globaux pour des millions d'utilisateurs, et non pour les garanties d'exactitude requises par un flux de travail individuel. L’exposition de la sémantique de la mémoire, des règles de correction ou des garanties de relecture limite la vitesse d’itération et augmente la responsabilité. L'opacité n'est pas accidentelle. C'est protecteur.

La mémoire peut s'améliorer, mais il restera difficile d'inspecter, d'exporter, de rejouer ou de raisonner formellement, en particulier entre les outils. Les corrections seront souvent silencieuses, implicites ou spécifiques au modèle.

Cela crée un écart de confiance croissant. Les utilisateurs peuvent s’appuyer sur la mémoire de la plateforme pour plus de commodité tout en s’en méfiant dans des contextes où les conséquences comptent.

La souveraineté des données ajoute une autre pression : les entreprises et les particuliers insistent de plus en plus pour que la mémoire des agents reste dans leur environnement, soit sur site, chez leur locataire ou sous leur contrôle, plutôt que dans le cloud d'un fournisseur.

Neotoma est construit pour cette lacune. Sa conception locale, inspectable et contrôlée par l'utilisateur est l'alternative pour les flux de travail où l'exactitude et la provenance sont importantes. Vous possédez les données et la sémantique ; vous pouvez exporter, corriger et raisonner sur ce que le système sait.

Ce qu’il faut surveiller l’année prochaine :
1. Des fonctionnalités de mémoire qui améliorent le rappel mais restent non documentées ou non exportables.
2. Les utilisateurs demandent ce que le système sait réellement – ​​comme une vue complète de ce qu’il croit, se souvient et a déduit, pas seulement des discussions brutes ou des exportations – et n’obtiennent aucune réponse claire.
3. Les solutions de contournement (par exemple, exportations, synchronisation tierce, réplication manuelle) augmentent plutôt que diminuent.
4. Appels d'offres ou exigences spécifiant que la mémoire de l'agent doit rester sur site ou dans le locataire de l'utilisateur.

## 5. La fragmentation des outils persistera

Malgré les discours récurrents sur la consolidation au sein d’une plateforme ou d’un espace de travail d’IA unique, le travail du savoir restera probablement fragmenté. Les professionnels opèrent déjà sur plusieurs modèles, éditeurs, copilotes, systèmes documentaires et cadres d'agents.

La raison structurelle est que les outils d’IA sont des compléments et non des substituts. Chacun optimise une partie différente du flux de travail : idéation, exécution, codage, récupération, communication. Les améliorations marginales n’effondrent pas la pile. Les faibles coûts de changement et l’itération rapide du modèle découragent encore davantage la consolidation.

À mesure que la prolifération des outils augmente, le problème central passe de la fragmentation des interfaces à la fragmentation des États. Le contexte vit dans trop d’endroits à la fois, et aucune surface ne peut raisonnablement en être propriétaire.

Neotoma se situe sous cette fragmentation plutôt que d’essayer de la résoudre. En exposant la mémoire via une interface de protocole plutôt qu'une seule interface utilisateur, il permet à plusieurs outils et agents de lire et d'écrire dans le même état sous-jacent sans forcer la convergence sur un seul flux de travail ou fournisseur.

Ce qu’il faut surveiller l’année prochaine :
1. Les professionnels changent de modèle ou d'outils en cours de tâche sans migrer proprement le contexte.
2. Plaintes répétées concernant la « perte de contexte » entre les outils.
3. Des équipes standardisant des flux de travail qui couvrent explicitement plusieurs produits d'IA.

## 6. L'utilisation des agents sera mesurée

L’exécution des agents risque également d’être de plus en plus limitée par les coûts. La raison structurelle est simple : le calcul devient un élément de campagne visible. Aucune restructuration économique radicale n’est nécessaire.

À mesure que les dépenses en IA augmentent, les organisations introduisent la budgétisation, l’attribution et l’optimisation. Une fois les coûts visibles, le comptage suit naturellement.

Lorsque l’utilisation est tarifée, l’inefficacité et la dérive cessent d’être des préoccupations abstraites. Recalculer le contexte, se souvenir de décisions antérieures ou répéter le travail devient un gaspillage visible.

Le modèle de mémoire déterministe de Neotoma devient ici pertinent car il sépare la mémoire durable du contexte transitoire. En permettant la relecture au lieu de la régénération, il traite la mémoire comme une surface d'optimisation plutôt que comme un effet secondaire de l'inférence.

Ce qu’il faut surveiller l’année prochaine :
1. Teams suit les coûts d’utilisation de l’agent ou du modèle par tâche ou flux de travail.
2. Des agents soucieux du budget qui modifient leur comportement en fonction des dépenses restantes.
3. Les efforts d'optimisation se sont concentrés sur la réduction des inférences redondantes plutôt que sur l'amélioration des invites.

## Comment ces tendances impactent les données démographiques clés

Ces tendances agissent comme des conditions d’activation pour des données démographiques distinctes touchées. Le néotome ne devient pas important par la persuasion. Cela devient important lorsque la réalité supprime les alternatives.

**Les opérateurs individuels natifs de l'IA et les travailleurs du savoir en contexte élevé** sont les premiers : fondateurs, consultants, chercheurs et constructeurs solo qui utilisent profondément l'IA dans leur réflexion et leur exécution. L'adoption est conditionnée par des agents dynamiques, des erreurs économiquement visibles et une insatisfaction à l'égard de la mémoire opaque de la plateforme. Une fois que les résultats ont une importance externe (pour les clients, les collaborateurs ou les revenus), l'incapacité de répondre « que savait le système quand cela a été produit ? » devient intenable. Neotoma devient attrayant en tant que système d'enregistrement personnel pouvant coexister avec plusieurs outils.

**Les petites équipes natives d'IA et les équipes hybrides de produits ou d'opérations** viennent en deuxième position. Les individus peuvent compenser une mémoire floue. Les équipes ne le peuvent pas. Une fois que les agents de chaque personne se souviennent de faits ou d’hypothèses légèrement différents, les coûts de coordination s’accumulent. La fragmentation des outils accélère ce phénomène, la pression des audits légitime la mémoire partagée et une utilisation mesurée convertit la dérive en gaspillage budgétaire. Dans cet environnement, Neotoma fonctionne moins comme une couche de productivité que comme une infrastructure cognitive partagée.

**Les développeurs intégrateurs et les créateurs d'outils d'IA** qui intègrent des agents dans des produits ou des plateformes viennent en troisième position. Pour eux, une panne de mémoire est un échec de production. À mesure que les agents deviennent autonomes, le rappel opaque devient invérifiable et inacceptable. Lorsque les erreurs de mémoire sont recadrées comme des défaillances du système plutôt que comme des bizarreries, les constructeurs commencent à rechercher des primitives de mémoire qui se comportent comme des bases de données plutôt que comme des conversations. Le néotome devient ici pertinent en tant que substrat et non en tant que caractéristique.

Dans toutes ces données démographiques, l’adoption est conditionnelle et progressive, et non motivée par un battage médiatique.

## Qu'est-ce qui fausserait cette vision

Toute vision sérieuse de l’avenir devrait être falsifiable. Sans signaux clairs qui prouveraient le contraire, ce n’est pas une thèse mais une croyance. Cela est directement important pour la stratégie produit, car construire vers un avenir qui ne se matérialise pas conduit à une élégante non-pertinence plutôt qu’à une adoption.

Le falsificateur le plus important serait les grandes plates-formes d’IA fournissant une mémoire véritablement portable, inspectable, rejouable et fiable pour tous les outils. Pas de mémoire au sens marketing, mais une mémoire appartenant à l'utilisateur, exportable, sémantiquement explicite et stable dans tous les contextes. Si la mémoire native de la plateforme fait autorité dans la pratique (ce qui signifie que les utilisateurs et les organisations lui font confiance comme enregistrement canonique de ce qui était connu et quand), le besoin d’une couche de vérité externe s’effondre. Dans ce monde, la différenciation fondamentale de Neotoma s'érode plutôt que de se combiner.

Un deuxième falsificateur serait une consolidation significative en un seul espace de travail d’IA dominant qui possède l’exécution, la mémoire et les outils de bout en bout. Si la pression de fragmentation disparaît parce qu’une surface parvient à absorber la pile, l’effet de levier des substrats de mémoire partagée diminue fortement.

Un troisième falsificateur serait que les agents restent de courte durée, étroitement supervisés et peu coûteux à réinitialiser, les pannes continuant d'être traitées principalement par le redémarrage plutôt que par le diagnostic de l'état. Si les agents à long terme ne se matérialisent pas et que la réinitialisation reste la stratégie de récupération dominante, la mémoire déterministe reste facultative plutôt que nécessaire.

Enfin, si les pressions en matière d’audit et de responsabilité ne parviennent pas à s’atténuer (si l’IA reste consultative plutôt que conséquentielle pour la plupart des professionnels), alors la mémoire, lourde de provenance, reste excessive plus longtemps que prévu.

Surveiller ces contre-signaux est aussi important que surveiller leur confirmation. Ils fournissent une alerte précoce indiquant que les hypothèses à l’origine de l’adoption s’affaiblissent et que la stratégie doit s’adapter en conséquence. Une vision qui ne peut être falsifiée ne peut être corrigée, et un produit construit sur une telle vision risque de devenir bien conçu pour un monde qui n’arrivera jamais.

## La mémoire en tant qu'infrastructure ouverte et critique

Il ne s’agit pas d’une prédiction selon laquelle le monde s’engagerait philosophiquement davantage en faveur de la vérité ou de l’exactitude.

Il s’agit d’une prédiction selon laquelle les agents deviennent dynamiques, les erreurs deviennent coûteuses, les plateformes restent opaques, les outils restent fragmentés, la pression des audits s’étend et l’utilisation devient payante.

Si ne serait-ce qu’une partie de cette trajectoire se maintient, la mémoire cesse d’être une fonctionnalité UX et devient une infrastructure nécessairement ouverte. Dans ce monde, les systèmes qui traitent la mémoire comme un état déterministe et inspectable ne sont plus visionnaires. Ils constituent tout simplement le moyen le moins coûteux d’empêcher des systèmes complexes de tomber en panne de manière opaque et irrécupérable.

Neotoma n’est pas le moteur de ce changement. C’est une réponse plausible.