[Claude movent la memòria al pla gratuït](https://x.com/claudeai/status/2028559427167834314) és una autèntica fita. Confirma que la memòria és ara una superfície bàsica del producte, no una funció de primera qualitat.

Aquesta part és una gran notícia.

La pregunta més difícil és què significa realment "memòria" una vegada que en depengueu per treballar realment. He estat provant la memòria tant a Claude com a ChatGPT durant mesos. Segueixen apareixent dos problemes.

## Quina memòria emmagatzema realment

Tant Claude com ChatGPT utilitzen la paraula "memòria" d'una manera que porta la gent a assumir la retenció total de detalls significatius a les converses. La realitat és diferent. El que aquestes plataformes anomenen memòria s'acosta més a un perfil que a un registre del que heu treballat.

El que emmagatzemen aquests sistemes és més proper als fragments de perfil condensats. Observen les teves converses i destil·len un grapat de fets sobre qui ets i com prefereixes treballar. Sembla que Claude ho fa millor. Per a cada xat, produeix algunes observacions, sobretot sobre la teva identitat com a professional, les teves preferències d'estil, com t'agrada interactuar amb la IA. ChatGPT, almenys segons la meva experiència, tendeix a desar aquests fragments només quan ho sol·liciteu explícitament.

![Exportació de memòria Claude que mostra fragments a nivell de perfil sense dates](/images/posts/your-ai-remembers-your-vibe-but-not-your-work-claude-memory-export.png)

Aquestes funcions no capturen detalls granulars sobre les coses en què heu treballat realment.

Si tinc una conversa sobre la meva rutina de fitness, els exercicis que he estat fent, les estadístiques de composició corporal que he estat fent un seguiment, el sistema resumirà que estic "en forma". No emmagatzemarà les dades reals sobre l'evolució de la meva salut. Si treballo a través d'una anàlisi financera o d'un conjunt de tasques de projecte, el sistema podria notar que em preocupen aquests dominis. No conservarà les especificitats.

L'afirmació àmplia que aquests agents recorden el "context" que els has donat és útil però limitada. És bo per a la familiaritat. Fa que les converses se sentin més naturals. No ofereix cap garantia que un agent pugui respondre preguntes detallades sobre treballs anteriors o reprendre de manera fiable on ho vau deixar.

El resultat és una cosa semblant a un amic que oblida els detalls de tot el que has parlat, però té una vaga idea de qui ets com a persona. Això és útil per a una conversa més fluida. No és útil per delegar el treball en curs.

## On la portabilitat es trenca

Claude va fer una oferta convincent juntament amb el seu llançament de memòria: [importeu la vostra memòria d'altres serveis](https://claude.com/import-memory). La idea és senzilla. Pregunteu al vostre antic assistent què sap de vosaltres, copieu la sortida i introduïu-la a Claude.

Com a UX, això és intel·ligent. Com a infraestructura, es trenca ràpidament.

Ho vaig provar amb ChatGPT. La primera vegada que vaig utilitzar l'indicador d'exportació de Claude en un xat normal que no era del projecte, ChatGPT va respondre amb els fragments de memòria que havia desat. Però aquestes eren majoritàriament entrades obsoletes, moltes del 2024, i gairebé cap no reflectia el meu treball o interaccions recents d'aquest any. No hi havia cap indici que el sistema hagués après automàticament res nou dels centenars de converses que vaig tenir durant els darrers mesos.

![Memòries desades de ChatGPT que mostren entrades obsoletes a nivell de superfície](/images/posts/your-ai-remembers-your-vibe-but-not-your-work-chatgpt-saved-memories.png)

El context de xat creuat que té ChatGPT, on la informació d'un fil apareix en un altre, no apareixia en absolut a l'exportació. Només van passar les entrades de memòria discretes i desades explícitament.

Quan vaig tornar a provar exactament el mateix missatge d'exportació en xats posteriors que no pertanyien al projecte, ChatGPT es va negar completament. No produiria la llista de memòria per segona vegada. Així que fins i tot l'exportació parcial que vaig obtenir va ser un resultat únic.

![ChatGPT es nega a exportar memòria, enumerant categories internes com a no exportables](/images/posts/your-ai-remembers-your-vibe-but-not-your-work-chatgpt-export-denied.png)

En els xats basats en projectes, la situació encara era pitjor. Quan vaig utilitzar el mateix indicador dins d'un projecte ChatGPT, es va negar a exportar memòria des del principi. En canvi, em va redirigir a la funció d'exportació de converses massives. Aquesta característica us ofereix un abocament de dades en brut, no un context estructurat. Obteniu fitxers per descarregar i esbrinar pel vostre compte.

![ChatGPT refusal: no dump of records or intern context](/images/posts/your-ai-remembers-your-vibe-but-not-your-work-chatgpt-refusal-no-dump.png) ![ChatGPT què podeu exportar: dades del compte i distinció de les internes resums](/images/posts/your-ai-remembers-your-vibe-but-not-your-work-chatgpt-export-what-you-can.png)

Per tant, la història de la portabilitat té un buit als dos extrems. La plataforma font controla què revelarà i on. La plataforma objectiu només pot ingerir el que realment passa. Si les exportacions són parcials, obsoletes i depenen de la superfície, la "portabilitat" és la transferència del millor esforç, no una migració estatal fiable.

## Tres categories que s'amaguen sota una paraula

Crec que el mercat està col·lapsant almenys tres coses diferents sota la paraula "memòria".

El primer és la memòria de conveniència. Fragments de perfil que suavitzen les interaccions, eviten la repetició i ajuden a la personalització. Fa que els chatbots se sentin menys sense estat. Això és el que Claude i ChatGPT envien avui, i és el que descriuen les dues primeres seccions d'aquesta publicació.

El segon és la memòria augmentada per la recuperació. Algunes plataformes ja ho fan fins a cert punt tractant les transcripcions de converses anteriors com a fitxers i cercant-les sota demanda. De manera més àmplia, l'agent utilitza la cerca agència o la cerca basada en incrustacions als vostres fitxers, correu i eines per aclarir el context quan ho demaneu. Pot respondre "què vam decidir en els tres últims correus electrònics?" o "trobar qualsevol cosa sobre l'apartament de Barcelona". Això és un pas més que els fragments de perfil. Però [la recuperació agent infereix; no garanteix](/posts/agentic-search-and-the-truth-layer). No hi ha estat canònic persistent, ni procedència, ni consistència entre sessions. La mateixa pregunta pot donar una resposta diferent la propera vegada. És un terme mitjà: millor que la memòria de conveniència per al treball real, no un substitut de l'estat durador.

La tercera és la memòria operativa duradora. És un estat mecanografiat, determinista i auditable que pot sobreviure als canvis d'eines, canvis de plataforma i límits de flux de treball. És el que necessiteu quan els agents comencen a gestionar tasques, contactes, compromisos i transaccions recurrents en nom vostre.

Tots tres importen. No són intercanviables, i col·lapsar-los en una paraula crea un [problema de veritat](/posts/agent-memory-truth-problem) tan bon punt depengueu d'algun d'ells per al treball real.

La memòria de conveniència guanya l'experiència de xat. La recuperació guanya preguntes exploratòries i puntuals. La memòria duradora guanya la capa d'estat que hi ha a sota.

## Com ho gestiona Neotoma de manera diferent

Estic construint Neotoma per a la tercera categoria. He escrit abans sobre [construir una capa de veritat per a la memòria d'agent persistent](/posts/truth-layer-agent-memory).

La diferència bàsica de disseny és que Neotoma tracta la memòria com una infraestructura de dades explícita i propietat de l'usuari en lloc d'un subproducte opac de les interaccions de xat.

**Entitats en lloc de fragments.** Cada fragment de context a Neotoma és una entitat estructurada amb un tipus, propietats i relacions amb altres entitats. Un contacte és un contacte. Una tasca és una tasca. Un registre financer és un registre financer. No s'enfonsen en una bossa de resums en llenguatge natural sobre "el que li importa a l'usuari". Quan un agent emmagatzema alguna cosa, emmagatzema un registre escrit. Quan un agent recupera alguna cosa, obté un resultat determinista, no una reconstrucció probabilística.

**Procedència de cada fet.** Cada observació a Neotoma fa un seguiment d'on prové i quan es va gravar. Si dos agents aporten informació sobre la mateixa entitat, cada contribució es pot traçar per separat. No hi ha cap caixa negra. Podeu auditar qualsevol fet fins a la seva font.

**Accés entre eines mitjançant MCP.** Neotoma exposa les seves dades mitjançant el Model Context Protocol, el que significa que qualsevol agent compatible amb MCP pot llegir i escriure a la mateixa capa de veritat. Ho faig servir diàriament. Les mateixes dades que empleno mitjançant Cursor estan disponibles per a Claude, per a ChatGPT i per a qualsevol eina futura que parli MCP. No hi ha cap pas d'exportació. No hi ha copiar-enganxar. Les dades són només allà, accessibles i coherents, independentment de l'agent amb què estic treballant.

**Sense gateing de plataforma.** En el model ChatGPT, la memòria viu dins de la plataforma i la plataforma decideix què revelar, on i a qui. A Neotoma, l'usuari és propietari del magatzem de dades. Cap plataforma no es pot negar a exportar-lo perquè mai no s'ha bloquejat.

**Incremental i composable.** Els agents poden afegir observacions a les entitats existents al llarg del temps. Si un agent m'ajuda amb els impostos aquest any, un altre agent d'una plataforma diferent l'any vinent podrà recollir els mateixos registres estructurats. El coneixement es composa en lloc de reiniciar-se.

Això crea una separació neta. Les interfícies de xat es poden seguir optimitzant per a la qualitat de la interacció, la personalitat i la UX. La capa de veritat que hi ha a sota s'optimitza per a la fiabilitat, la integritat i el control. Quan un model o una interfície canvia, l'estat subjacent no deriva amb ell.

## On crec que va això

A curt termini, la majoria dels usuaris seguiran utilitzant la memòria de la plataforma. Ho haurien de fer. Està millorant i fa que el xat se senti millor.

Paral·lelament, qualsevol persona que creï fluxos de treball d'agent seriosos començarà a trobar-se amb els mateixos buits amb què vaig trobar-me: record parcial, exportacions obsoletes, comportament dependent de la superfície, context al·lucinat. Aquests problemes s'encareixen a mesura que delegues més responsabilitat. He escrit per separat sobre les [sis tendències estructurals](/posts/six-agentic-trends-betting-on) que fan que aquesta bretxa s'ampliï amb el pas del temps: els agents s'estan convertint en estat, els errors tenen un preu, les plataformes es mantenen opaques, les eines es mantenen fragmentades.

El patró que espero és que les capes de veritat apareguin sota la capa de xat. A poc a poc al principi, després com una infraestructura evident.

Claude fent lliure la memòria fa avançar tota la categoria. La meva prova només aclareix on és el límit. La memòria de la plataforma millora la qualitat de la conversa. Encara no proporciona un substrat fiable per al treball d'agents a llarg horitzó i context creuat.

Aquest buit és el que estic construint [Neotoma](/posts/neotoma-developer-release) per omplir. La versió per a desenvolupadors està disponible ara a [neotoma.io](https://neotoma.io) i estic donant la benvinguda activament als provadors.