[Claude traslada la memoria al plan gratuito](https://x.com/claudeai/status/2028559427167834314) es un verdadero hito. Confirma que la memoria es ahora una superficie central del producto, no una característica premium.

Esa parte es una gran noticia.

La pregunta más difícil es qué significa realmente "memoria" una vez que dependes de ella para un trabajo real. He estado probando la memoria tanto en Claude como en ChatGPT durante meses. Siguen apareciendo dos problemas.

## ¿Qué almacena realmente la memoria?

Tanto Claude como ChatGPT utilizan la palabra "memoria" de una manera que lleva a las personas a asumir la retención total de detalles significativos en las conversaciones. La realidad es diferente. Lo que estas plataformas llaman memoria se parece más a un perfil que a un registro de aquello en lo que trabajaste.

Lo que almacenan estos sistemas se acerca más a fragmentos de perfil condensados. Observan sus conversaciones y extraen algunos datos sobre quién es usted y cómo prefiere trabajar. Claude parece hacer esto mejor. Para cada chat, genera algunas observaciones, principalmente sobre su identidad como profesional, sus preferencias de estilo y cómo le gusta interactuar con la IA. ChatGPT, al menos en mi experiencia, tiende a guardar estos fragmentos solo cuando usted se lo solicita explícitamente.

![Exportación de memoria de Claude que muestra fragmentos a nivel de perfil sin fechas](/images/posts/your-ai-remembers-your-vibe-but-not-your-work-claude-memory-export.png)

Estas funciones no capturan detalles granulares sobre las cosas en las que realmente ha trabajado.

Si tengo una conversación sobre mi rutina de ejercicios, los ejercicios que he estado haciendo, las estadísticas de composición corporal que he estado siguiendo, el sistema resumirá que estoy "en forma". No almacenará los datos reales sobre la evolución de mi salud. Si trabajo en un análisis financiero o en un conjunto de tareas de proyecto, el sistema podría notar que me preocupan esos dominios. No conservará los detalles.

La afirmación amplia de que estos agentes recuerdan el "contexto" que usted les ha dado es útil pero limitada. Es bueno para la familiaridad. Hace que las conversaciones se sientan más naturales. No ofrece ninguna garantía de que un agente pueda responder preguntas detalladas sobre trabajos anteriores o continuar de manera confiable donde lo dejó.

El resultado es algo así como un amigo que olvida los detalles de todo lo que has hablado pero tiene una vaga idea de quién eres como persona. Esto es útil para una conversación más fluida. No es útil para delegar el trabajo en curso.

## Donde falla la portabilidad

Claude hizo una oferta convincente junto con el lanzamiento de la memoria: [importa tu memoria desde otros servicios](https://claude.com/import-memory). La idea es sencilla. Pregúntale a tu antiguo asistente qué sabe sobre ti, copia el resultado y tráelo a Claude.

Como UX, esto es inteligente. Como infraestructura, se rompe rápidamente.

Probé esto con ChatGPT. La primera vez que utilicé el mensaje de exportación de Claude en un chat normal que no era de proyecto, ChatGPT respondió con los fragmentos de memoria que había guardado. Pero en su mayoría eran entradas obsoletas, muchas de 2024, y casi ninguna reflejaba mi trabajo o interacciones recientes de este año. No había señales de que el sistema hubiera aprendido automáticamente algo nuevo de los cientos de conversaciones que tuve en los últimos meses.

![Recuerdos guardados de ChatGPT que muestran entradas obsoletas y superficiales](/images/posts/your-ai-remembers-your-vibe-but-not-your-work-chatgpt-saved-memories.png)

El contexto de chat cruzado que claramente tiene ChatGPT, donde la información de un hilo aparece en otro, no apareció en la exportación en absoluto. Sólo llegaron las entradas de memoria discretas y guardadas explícitamente.

Cuando intenté exactamente el mismo mensaje de exportación nuevamente en chats posteriores que no eran del proyecto, ChatGPT se negó por completo. No produciría la lista de memoria por segunda vez. Así que incluso la exportación parcial que obtuve fue un resultado de una sola vez.

![ChatGPT se niega a exportar memoria y enumera las categorías internas como no exportables](/images/posts/your-ai-remembers-your-vibe-but-not-your-work-chatgpt-export-denied.png)

En los chats basados ​​en proyectos la situación era aún peor. Cuando utilicé el mismo mensaje dentro de un proyecto ChatGPT, se negó a exportar memoria desde el principio. En cambio, me redirigió a la función de exportación masiva de conversaciones. Esa característica le brinda un volcado de datos sin procesar, no un contexto estructurado. Obtienes archivos para descargar y descubrir por tu cuenta.

![Rechazo de ChatGPT: sin volcado de recuerdos ni contexto interno](/images/posts/your-ai-remembers-your-vibe-but-not-your-work-chatgpt-refusal-no-dump.png) ![ChatGPT lo que puedes exportar: datos de cuenta y distinción de internos resúmenes](/images/posts/tu-ai-recuerda-tu-vibra-pero-no-tu-trabajo-chatgpt-export-what-you-can.png)

Así que la historia de la portabilidad tiene un vacío en ambos extremos. La plataforma fuente controla qué divulgará y dónde. La plataforma de destino sólo puede asimilar lo que realmente llega. Si las exportaciones son parciales, obsoletas y dependientes de la superficie, la "portabilidad" es una transferencia del mejor esfuerzo, no una migración estatal confiable.

## Tres categorías escondidas bajo una palabra

Creo que el mercado está colapsando al menos en tres cosas distintas bajo la palabra "memoria".

La primera es la memoria de conveniencia. Fragmentos de perfil que suavizan las interacciones, evitan la repetición y ayudan a la personalización. Hace que los chatbots se sientan menos apátridas. Esto es lo que Claude y ChatGPT ofrecen hoy, y es lo que describen las dos primeras secciones de esta publicación.

El segundo es la memoria aumentada por recuperación. Algunas plataformas ya hacen esto hasta cierto punto al tratar las transcripciones de conversaciones pasadas como archivos y buscarlas a pedido. En términos más generales, el agente utiliza la búsqueda agente o la búsqueda basada en incrustaciones en sus archivos, correo y herramientas para mostrar el contexto cuando usted lo solicita. Puede responder "¿qué decidimos en los últimos tres correos electrónicos?" o "encontrar cualquier cosa sobre el apartamento en Barcelona". Eso es un paso adelante con respecto a los fragmentos de perfil. Pero [la recuperación agente infiere; no garantiza](/posts/agentic-search-and-the-truth-layer). No hay un estado canónico persistente, ni procedencia, ni coherencia entre sesiones. La misma pregunta puede dar una respuesta diferente la próxima vez. Es un término medio: mejor que la memoria de conveniencia para el trabajo real, no un sustituto del estado duradero.

El tercero es la memoria operativa duradera. Es un estado tipificado, determinista y auditable que puede sobrevivir a cambios de herramientas, cambios de plataforma y límites del flujo de trabajo. Es lo que necesita cuando los agentes comienzan a manejar tareas, contactos, compromisos y transacciones recurrentes en su nombre.

Los tres importan. No son intercambiables y agruparlos en una sola palabra crea un [problema de verdad](/posts/agent-memory-truth-problem) tan pronto como dependes de cualquiera de ellos para un trabajo real.

La comodidad de la memoria gana en la experiencia del chat. La recuperación gana en preguntas exploratorias únicas. La memoria duradera gana la capa de estado que se encuentra debajo.

## Cómo Neotoma maneja esto de manera diferente

Estoy construyendo Neotoma para la tercera categoría. He escrito antes sobre [construir una capa de verdad para la memoria persistente del agente](/posts/truth-layer-agent-memory).

La principal diferencia de diseño es que Neotoma trata la memoria como una infraestructura de datos explícita y propiedad del usuario en lugar de un subproducto opaco de las interacciones de chat.

**Entidades en lugar de fragmentos.** Cada fragmento de contexto en Neotoma es una entidad estructurada con un tipo, propiedades y relaciones con otras entidades. Un contacto es un contacto. Una tarea es una tarea. Un registro financiero es un registro financiero. No están agrupados en una bolsa de resúmenes en lenguaje natural sobre "lo que le importa al usuario". Cuando un agente almacena algo, almacena un registro escrito. Cuando un agente recupera algo, obtiene un resultado determinista, no una reconstrucción probabilística.

**Procedencia de cada hecho.** Cada observación en Neotoma rastrea de dónde vino y cuándo se registró. Si dos agentes aportan información sobre la misma entidad, cada contribución es rastreable por separado. No hay ninguna caja negra. Puede auditar cualquier hecho hasta su fuente.

**Acceso entre herramientas a través de MCP.** Neotoma expone sus datos a través del Protocolo de contexto del modelo, lo que significa que cualquier agente compatible con MCP puede leer y escribir en la misma capa de verdad. Lo uso a diario. Los mismos datos que completo a través de Cursor están disponibles para Claude, ChatGPT y cualquier herramienta futura que hable MCP. No hay paso de exportación. No hay copiar y pegar. Los datos están ahí, accesibles y consistentes independientemente del agente con el que esté trabajando.

**Sin puerta de plataforma.** En el modelo ChatGPT, la memoria vive dentro de la plataforma y la plataforma decide qué revelar, dónde y a quién. En Neotoma, el usuario es propietario del almacén de datos. Ninguna plataforma puede negarse a exportarlo porque nunca estuvo encerrado en una.

**Incremental y componible.** Los agentes pueden agregar observaciones a entidades existentes a lo largo del tiempo. Si un agente me ayuda con los impuestos este año, otro agente en una plataforma diferente el próximo año podrá recogerlos de los mismos registros estructurados. El conocimiento se acumula en lugar de restablecerse.

Esto crea una separación limpia. Las interfaces de chat pueden seguir optimizándose para mejorar la calidad de la interacción, la personalidad y la UX. La capa de verdad subyacente optimiza la confiabilidad, la integridad y el control. Cuando un modelo o interfaz cambia, el estado subyacente no cambia con él.

## ¿Adónde creo que va esto?

A corto plazo, la mayoría de los usuarios seguirán utilizando la memoria de la plataforma. Deberían hacerlo. Está mejorando y hace que el chat se sienta mejor.

Paralelamente, cualquiera que cree flujos de trabajo de agentes serios comenzará a encontrarse con las mismas lagunas que encontré yo: recuerdo parcial, exportaciones obsoletas, comportamiento dependiente de la superficie, contexto alucinado. Esos problemas se vuelven más costosos a medida que delegas más responsabilidades. He escrito por separado sobre las [seis tendencias estructurales](/posts/six-agentic-trends-betting-on) que amplían esta brecha con el tiempo: los agentes se vuelven con estado, los errores se valoran, las plataformas permanecen opacas, las herramientas permanecen fragmentadas.

El patrón que espero es que aparezcan capas de verdad debajo de la capa de chat. Al principio gradualmente, luego como infraestructura evidente.

Claude, al liberar la memoria, impulsa a toda la categoría hacia adelante. Mis pruebas simplemente aclaran dónde está el límite. La memoria de la plataforma mejora la calidad de la conversación. Todavía no proporciona un sustrato confiable para el trabajo de agentes a largo plazo y en contextos cruzados.

Ese vacío es lo que estoy construyendo [Neotoma](/posts/neotoma-developer-release) para llenar. La versión para desarrolladores ya está disponible en [neotoma.io](https://neotoma.io) y doy la bienvenida activamente a los evaluadores.