Tothom que està implicat en la IA ara mateix, de manera implícita o explícita, està intentant predir cap a on van les coses i com aquests canvis canviaran la nostra vida i el nostre treball. El volum d'especulació és enorme, i gran part contradictòria. Això és inevitable. Ningú pot saber amb confiança què ens depararà els propers dos anys. L'espai s'està movent massa ràpid, les interaccions entre tecnologies són massa complexes i els efectes de segon ordre dominen d'una manera difícil de modelar amb antelació.

Tot i així, si esteu operant en aquest espai, sobretot si esteu construint alguna cosa amb IA o per a IA, no n'hi ha prou amb mantenir-se agnòstic. Heu de triar un conjunt de tesis bàsiques sobre com és probable que el món evolucioni i es construeixi de manera coherent al seu voltant, sabent que algunes s'equivocaran i d'altres importaran més del que s'esperava. Aquestes tesis es refereixen menys a la predicció precisa i més a la identificació de pressions estructurals que sembla poc probable que es revertiran.

El que segueix són els supòsits centrals sota els quals estic operant actualment. No són afirmacions sobre la inevitabilitat i no estan pensades per cobrir tots els futurs possibles. Són les tendències que, si continuen fins i tot parcialment, configuren com crec que s'utilitzaran els sistemes d'IA, on s'acumularà la fricció i quins tipus d'infraestructura es farà necessària. El meu treball ([Neotoma](/posts/truth-layer-agent-memory), una capa de veritat) s'entén millor com una resposta a aquestes suposicions. No és el motiu d'ells, sinó que es construeix anticipant-se al món que impliquen.

## 1. Els agents es convertiran en actors econòmics d'estat

Durant els propers dos anys, és probable que els agents vagin més enllà de les interaccions d'assistència i centrades en el prompte i esdevinguin actors significatius. No es requereix cap avenç en la intel·ligència general. N'hi ha prou amb una inferència més barata, API d'eines més capaços i una tolerància més àmplia per als agents que funcionen sense vigilància.

El canvi social és real. Estem acostumats a eines que no fan res fins que actuem. Quan els agents persisteixen en els objectius, es coordinen entre ells i prenen accions irreversibles al llarg del temps, la pregunta de qui és el responsable es fa més difícil de respondre. Es delega més feina a actors no humans; [el límit](/posts/we-are-all-centaures-now) entre "jo vaig fer això" i "el meu agent va fer això" es suavitza. Les normes sobre la confiança, la responsabilitat i la dependència s'hauran d'adaptar. La tecnologia permet el canvi; la societat ha de decidir com viure-hi.

Per què és probable aquesta tendència? El cost marginal de mantenir els agents vius s'esfondra més ràpidament que el cost de reconstruir el context. A mesura que la inferència es fa més barata i l'orquestració madura, és més eficient persistir l'estat d'un agent que reconstruir-lo des de zero. Les API d'eines assumeixen cada cop més continuïtat: credencials, memòria cau, artefactes intermedis. La persistència es premia sobre l'apatridia.

En aquest món, la memòria deixa de ser una característica de conveniència. Passa a formar part de l'estat del sistema, comparable a una base de dades en lloc d'un registre de xat. Quan aquest estat és adequat i fiable, es fan possibles coses noves a escala: plans a llarg horitzó que abasten dies o setmanes, coordinació entre molts agents i eines i treball delegat que només és factible quan l'estat es pot confiar i allargar al llarg del temps.

Neotoma està construït per això. Tracta la memòria com un estat explícit del sistema: entitats escrites, esdeveniments i relacions en un gràfic determinista, no un residu de prompte o semblança incrustada. La història d'un agent es pot reproduir, inspeccionar i raonar com a part del propi sistema.

Què veure l'any vinent:
1. Els marcs d'agent que anuncien una execució de llarga durada, en segon pla o que es pot reprendre com a característica bàsica.
2. Equips que discuteixen la corrupció o la deriva de l'estat de l'agent com a classe d'error diferent en lloc de reiniciar els agents com a solució.
3. Interfícies de producte que exposen la història de l'agent com una cosa inspeccionable més que no pas efímera.
4. Equips que executen diversos agents que necessiten una única font de veritat per a les entitats i les decisions.

## 2. Els errors d'agent es faran visibles econòmicament

A mesura que la producció d'IA flueix cada cop més directament a la facturació, el compliment, els lliuraments del client i els fluxos de treball automatitzats, és probable que el cost dels errors canviï. El que actualment és un inconvenient difús es converteix en un impacte econòmic explícit.

Quan els errors comencen a aparèixer en autopsies, contractes i expedients judicials, la societat obté una imatge més nítida de qui assumeix el cost i de qui és culpable. Les organitzacions s'enfrontaran a pressió per demostrar com es van prendre les decisions i què sabia el sistema en aquell moment. Aquesta pressió afectarà les normes professionals, les assegurances i la regulació. Els individus i els petits equips poden estar subjectes a estàndards que es van dissenyar originalment per a grans institucions amb pistes d'auditoria. L'avantatge és més responsabilitat i menys fracassos silenciosos. L'inconvenient és que la barra per a "explicable" i "auditable" pot augmentar més ràpidament del que molts estan preparats.

La raó estructural per la qual és probable aquesta tendència és que la IA s'està apropant als límits de la presa de decisions, no només a les capes d'assessorament. A mesura que la sortida de l'IA s'integra en sistemes que desencadenen pagaments, compromisos o comunicacions externes, els errors hereten l'estructura de costos d'aquests sistemes. Les organitzacions no poden continuar tractant els errors com a "models peculiars" una vegada que es propaguen en accions irreversibles.

Avui en dia, els errors sovint es rebutgen amb la regeneració o els ajustaments ràpids. Demà, aquests mateixos errors gastaran diners, danyaran la reputació o crearan exposició legal.

Quan els errors tenen un preu, les organitzacions deixen de preguntar-se si els resultats van ser útils. Comencen a preguntar-se com es van produir aquests resultats, en quina informació es basaven i si el procés es pot reproduir o auditar.

Com a corol·lari, la tolerància a la memòria aproximada o ambigua s'erosiona. El llistó del que es considera prou bo s'eleva primer quan el dany és visible, i després aquest estàndard es desplaça cap a l'exterior. Una vegada que els errors són costosos, la memòria que podeu corregir i rastrejar es converteix en una infraestructura, no una comoditat.

Neotoma s'alinea amb aquest canvi fent complir la procedència a la capa de memòria. Els fets s'emmagatzemen amb l'atribució de la font, les marques de temps i els esdeveniments d'ingestió. Les correccions són additives més que destructives, cosa que permet als equips reconstruir exactament el que un agent sabia en el moment de prendre una decisió en lloc d'endevinar basant-se en registres parcials.

Què cal veure l'any vinent:
1. Falles relacionades amb la IA que apareixen en autopsies, disputes amb clients o contextos legals.
2. Equips que demanen explícitament "què sabia l'agent en aquell moment?" després dels errors.
3. Els requisits de traçabilitat o d'auditoria que s'afegeixen als fluxos de treball d'IA de manera retroactiva.
4. Incidències públiques atribuïdes a errors de memòria d'IA; el llenguatge canvia de "al·lucinació" a "falla del sistema" en les autopsies.
5. Equips que demanen "desfer aquest fet" o "revertir el que l'agent creu" sense restabliments complets.
6. "Què creu el sistema i com ha evolucionat?" emmarcat com una consulta sobre un gràfic coherent en lloc d'una trucada RAG.

## 3. L'auditoria i el compliment aniran a la baixa del mercat

Una tendència relacionada: la pressió per demostrar com es produïa el treball i què sabia el sistema no es limitarà a les grans empreses. Allà on els errors comporten un cost real (econòmic, legal o de reputació), segueix l'exigència de defensa i manteniment de registres. A mesura que la IA s'incorpori al treball professional, els consultors, les agències, els autònoms regulats i els petits equips natius d'IA s'enfrontaran a les mateixes expectatives.

La raó estructural és la difusió de la responsabilitat. A mesura que es normalitza l'ús de la IA, la responsabilitat no desapareix. S'escampa. Els clients, les asseguradores i els reguladors responen buscant controls compensatoris. La pressió de l'auditoria es mou al mercat a la baixa no perquè els equips petits ho vulguin, sinó perquè el risc segueix l'ús.

Una vegada que les preguntes sobre com es va produir el treball esdevenen rutinàries, la memòria sense procedència esdevé un problema més que una conveniència. Les cronologies estructurades, el record a nivell d'entitat i l'atribució de fonts comencen a funcionar com a infraestructura defensiva.

Neotoma s'alinea amb aquest canvi tractant la memòria com una cosa que es pot reconstruir en el temps en lloc d'inferir-se de manera retrospectiva. La resolució de l'entitat, l'ordenació temporal i la procedència no són complements. Són la base del model.

Què veure l'any vinent:
1. Divulgacions d'ús d'IA que apareixen en contractes, declaracions de treball o directrius professionals.
2. Sol·licituds de documentació de decisions assistides per IA de clients o asseguradores.
3. Individuals o petits equips que emmagatzemen de manera proactiva els registres d'interacció d'IA de manera defensiva.
4. Regulació que exigeix ​​explícitament el manteniment de registres o l'explicació per a determinats usos de la IA.

## 4. La memòria de la plataforma romandrà opaca

És probable que les grans plataformes d'IA continuïn enviant funcions de memòria útils però fonamentalment opaques. Els seus incentius afavoreixen el compromís, la retenció i l'optimització del model en lloc de la procedència controlada per l'usuari o les garanties de correcció.

L'efecte social és una divisió entre els que es poden permetre el luxe de cuidar i els que no poden. Les persones i organitzacions que necessiten garanties sòlides (auditoria, correcció, portabilitat) pagaran alternatives, construiran les seves pròpies o acceptaran el risc. Tothom confiarà en la memòria de la plataforma i viurà amb la bretxa de confiança. Aquesta divisió pot reforçar les desigualtats existents. Els ben dotats obtenen memòria portàtil i transparent; tots els altres tenen conveniència amb termes opacs. Amb el pas del temps, les normes sobre què signifiquen "les meves dades" i "la meva història" poden divergir segons el context i qui ets. Les expectatives cíviques i professionals (per exemple, que podeu mostrar la vostra feina o exportar els vostres registres) només s'apliquen a alguns.

La raó estructural per la qual això persisteix és [desalineació d'incentius](/posts/building-estructural-barriers). Les plataformes s'optimitzen per obtenir resultats agregats entre milions d'usuaris, no per a les garanties de correcció requerides per cap flux de treball individual. L'exposició de la semàntica de la memòria, les regles de correcció o la reproducció garanteix restringeix la velocitat d'iteració i augmenta la responsabilitat. L'opacitat no és casual. És protector.

La memòria pot millorar, però seguirà sent difícil d'inspeccionar, exportar, reproduir o raonar formalment, especialment entre eines. Les correccions solen ser silencioses, implícites o específiques del model.

Això crea una creixent bretxa de confiança. Els usuaris poden confiar en la memòria de la plataforma per comoditat i alhora desconfiar-ne en contextos on les conseqüències importen.

La sobirania de les dades afegeix una pressió a part: les empreses i els individus insisteixen cada cop més perquè la memòria de l'agent es mantingui al seu entorn, ja sigui local, al seu inquilí o sota el seu control, en lloc del núvol d'un proveïdor.

Neotoma està construït per a aquest buit. El seu disseny local, inspeccionable i controlat per l'usuari és l'alternativa per als fluxos de treball on la correcció i la procedència són importants. Sou propietari de les dades i de la semàntica; podeu exportar, corregir i raonar el que sap el sistema.

Què veure l'any vinent:
1. Funcions de memòria que milloren la memòria però es mantenen indocumentades o no exportables.
2. Usuaris que pregunten què sap realment el sistema, com ara una visió completa del que creu, recorda i ha inferit, no només el xat o les exportacions en brut, i no obtenen una resposta clara.
3. Les solucions alternatives (p. ex., exportacions, sincronització amb tercers, rèplica manual) creixen en lloc de reduir-se.
4. RFP o requisits que especifiquen que la memòria de l'agent s'ha de mantenir a l'establiment o a l'arrendatari de l'usuari.

## 5. La fragmentació de l'eina persistirà

Malgrat les narracions recurrents sobre la consolidació en una única plataforma o espai de treball d'IA, és probable que el treball del coneixement es mantingui fragmentat. Els professionals ja operen amb diversos models, editors, copilots, sistemes de documents i marcs d'agent.

La raó estructural és que les eines d'IA són complements, no substitutius. Cadascun s'optimitza per a una part diferent del flux de treball: ideació, execució, codificació, recuperació, comunicació. Les millores marginals no col·lapsen la pila. Els baixos costos de canvi i la ràpida iteració del model descoratllen encara més la consolidació.

A mesura que augmenta l'expansió de les eines, el problema central passa de la fragmentació de la interfície a la fragmentació de l'estat. El context viu en massa llocs alhora, i cap superfície pot ser realista.

Neotoma es troba sota aquesta fragmentació en lloc d'intentar resoldre-la. En exposar la memòria mitjançant una interfície de protocol en lloc d'una única interfície d'usuari, permet que diverses eines i agents llegeixin i escriguin al mateix estat subjacent sense forçar la convergència en un sol flux de treball o proveïdor.

Què veure l'any vinent:
1. Els professionals canvien de model o d'eines a la meitat de la tasca sense migrar el context de manera neta.
2. Queixes reiterates sobre "perdre context" entre eines.
3. Equips que estandarditzen fluxos de treball que abasten explícitament diversos productes d'IA.

## 6. L'ús d'agent es mesurarà

També és probable que l'execució de l'agent estigui cada cop més limitada pel cost. La raó estructural és senzilla: el càlcul s'està convertint en una línia visible. No cal una reestructuració econòmica radical.

A mesura que la despesa en IA creix, les organitzacions introdueixen pressupostos, atribucions i optimització. Un cop els costos són visibles, el mesurament segueix de manera natural.

Quan l'ús té un preu, la ineficiència i la deriva deixen de ser preocupacions abstractes. Recalcular el context, recordar malament les decisions prèvies o repetir el treball es converteix en un residu visible.

El model de memòria determinista de Neotoma esdevé rellevant aquí perquè separa la memòria duradora del context transitori. En permetre la reproducció en lloc de la regeneració, tracta la memòria com una superfície d'optimització en lloc d'un efecte secundari d'inferència.

Què veure l'any vinent:
1. Els equips fan el seguiment dels costos d'ús de l'agent o del model per tasca o flux de treball.
2. Agents conscients del pressupost que alteren el comportament en funció de la despesa restant.
3. Els esforços d'optimització es van centrar a reduir la inferència redundant en lloc de millorar les indicacions.

## Com afecten aquestes tendències a la demografia clau

Aquestes tendències actuen com a condicions d'activació per a diferents grups demogràfics afectats. El neotoma no adquireix importància mitjançant la persuasió. Esdevé important quan la realitat elimina alternatives.

**Els operadors individuals nadius d'IA i els treballadors del coneixement d'alt context** són els primers: fundadors, consultors, investigadors i constructors individuals que utilitzen la IA profundament en el pensament i l'execució. L'adopció està limitada per agents amb estat, errors econòmicament visibles i insatisfacció amb la memòria opaca de la plataforma. Una vegada que les sortides importen externament (per als clients, col·laboradors o ingressos), la incapacitat de respondre "què sabia el sistema quan es va produir?" esdevé insostenible. Neotoma esdevé atractiu com a sistema personal de registre que pot conviure amb múltiples eines.

**Els equips petits nadius d'IA i els equips híbrids de productes o operacions** són els segons. Els individus poden compensar la memòria borrosa. Els equips no poden. Una vegada que els agents de cada persona recorden fets o supòsits lleugerament diferents, els costos de coordinació es compensen. La fragmentació de l'eina accelera això, la pressió d'auditoria legitima la memòria compartida i l'ús mesurat converteix la deriva en malbaratament pressupostari. En aquest entorn, Neotoma funciona menys com a capa de productivitat i més com a infraestructura cognitiva compartida.

**Els integradors de desenvolupadors i els creadors d'eines d'IA** que incorporen agents a productes o plataformes són els tercers. Per a ells, la fallada de memòria és una fallada de producció. A mesura que els agents es tornen autònoms, la memòria opaca es torna intestable i inacceptable. Quan els errors de memòria es replantegen com a errors del sistema i no com a peculiaritats, els constructors comencen a buscar primitives de memòria que es comporten com a bases de dades en lloc de converses. Neotoma esdevé rellevant aquí com a substrat, no com a característica.

En totes aquestes dades demogràfiques, l'adopció és condicional i gradual, no impulsada per la publicitat.

## Què podria falsificar aquesta visió

Qualsevol visió seriosa del futur hauria de ser falsificable. Sense senyals clars que demostrin que està equivocat, no és una tesi sinó una creença. Això importa directament per a l'estratègia del producte, perquè construir cap a un futur que no es materialitza condueix a una irrellevància elegant en lloc d'adopció.

El falsificador més significatiu serien les grans plataformes d'IA que ofereixin memòria realment portàtil, inspeccionable, reproduïble i de confiança entre eines. No memòria en un sentit de màrqueting, sinó memòria propietat de l'usuari, exportable, semànticament explícita i estable en tots els contextos. Si la memòria nativa de la plataforma esdevé autoritzada a la pràctica (és a dir, els usuaris i les organitzacions confien en ella com a registre canònic del que es va saber i quan), la necessitat d'una capa de veritat externa es col·lapsa. En aquest món, la diferenciació bàsica de Neotoma s'erosiona en lloc de composar-se.

Un segon falsificador seria una consolidació significativa en un únic espai de treball d'IA dominant que posseeixi l'execució, la memòria i les eines d'extrem a extrem. Si la pressió de fragmentació desapareix perquè una superfície absorbeix amb èxit la pila, l'aprofitament dels substrats de memòria compartida disminueix bruscament.

Un tercer falsificador serien els agents que romandrien de curta durada, supervisats estretament i barats de restablir, i els errors es continuaran gestionant principalment reiniciant-se en comptes de diagnosticar l'estat. Si els agents de llarga durada no es materialitzen i el restabliment continua sent l'estratègia de recuperació dominant, la memòria determinista continua sent opcional més que necessària.

Finalment, si la pressió de l'auditoria i la responsabilitat no es mou al mercat a la baixa (si la IA continua sent assessora en lloc de conseqüent per a la majoria dels professionals), aleshores la memòria pesada en procedència continua sent excessiva durant més temps del previst.

Vigilar aquests contrasenyals és tan important com vigilar la confirmació. Proporcionen una alerta primerenca que els supòsits que impulsen l'adopció s'estan debilitant i que l'estratègia s'ha d'adaptar en conseqüència. Una visió que no es pot falsificar no es pot corregir, i un producte construït sobre aquesta visió corre el risc d'estar ben dissenyat per a un món que mai arriba.

## La memòria com a infraestructura crítica i oberta

Aquesta no és una predicció que el món es comprometi més filosòficament amb la veritat o la correcció.

És una predicció que els agents es tornen amb estat, els errors s'encareixen, les plataformes romanen opaques, les eines romanen fragmentades, la pressió d'auditoria s'estén i l'ús té un preu.

Si fins i tot una part d'aquesta trajectòria es manté, la memòria deixa de ser una característica d'UX i es converteix en una infraestructura necessàriament oberta. En aquest món, els sistemes que tracten la memòria com un estat determinista i inspeccionable ja no són visionaris. Simplement són la manera més barata d'evitar que els sistemes complexos fallin de manera opaca i irrecuperable.

Neotoma no és el motor d'aquest canvi. És una resposta plausible.