Todos os envolvidos na IA neste momento estão, implícita ou explicitamente, a tentar prever para onde as coisas vão e como essas mudanças irão remodelar as nossas vidas e o nosso trabalho. O volume de especulação é enorme e grande parte dela é contraditória. Isso é inevitável. Ninguém pode saber com certeza o que os próximos anos trarão. O espaço está a mover-se demasiado rapidamente, as interações entre tecnologias são demasiado complexas e os efeitos de segunda ordem dominam de formas que são difíceis de modelar antecipadamente.

Ainda assim, se você estiver operando neste espaço, especialmente se estiver construindo algo com IA ou para IA, não é suficiente permanecer agnóstico. Você tem que escolher um conjunto de teses centrais sobre como o mundo provavelmente evoluirá e construirá de forma coerente em torno delas, sabendo que algumas estarão erradas e outras serão mais importantes do que o esperado. Estas teses têm menos a ver com previsões precisas e mais com a identificação de pressões estruturais que parecem improváveis ​​de serem revertidas.

O que se segue são as suposições centrais sob as quais estou operando atualmente. Não são afirmações sobre a inevitabilidade e não se destinam a cobrir todos os futuros possíveis. São as tendências que, se continuarem, mesmo que parcialmente, moldarão a forma como penso que os sistemas de IA serão utilizados, onde a fricção se acumulará e que tipos de infra-estruturas se tornarão necessárias. Meu trabalho ([Neotoma](/posts/truth-layer-agent-memory), uma camada de verdade) é melhor entendido como uma resposta a essas suposições. Não é a razão deles, mas é construída em antecipação ao mundo que eles implicam.

## 1. Os agentes se tornarão atores econômicos estatais

Nos próximos dois anos, os agentes provavelmente irão além das interações assistenciais e centradas no prompt e se tornarão atores significativamente estatais. Não é necessário nenhum avanço na inteligência geral. Inferência mais barata, APIs de ferramentas mais capazes e tolerância mais ampla para agentes em execução autônoma são suficientes.

A mudança social é real. Estamos acostumados com ferramentas que não fazem nada até agirmos. Quando os agentes persistem nos objetivos, coordenam-se entre si e tomam ações irreversíveis ao longo do tempo, a questão de quem é o responsável torna-se mais difícil de responder. Mais trabalho é delegado a intervenientes não humanos; [a fronteira](/posts/we-are-all-centaurs-now) entre "eu fiz isso" e "meu agente fez isso" suaviza. As normas relativas à confiança, responsabilidade e dependência terão de se adaptar. A tecnologia permite a mudança; a sociedade tem que decidir como conviver com isso.

Por que essa tendência é provável? O custo marginal de manter os agentes vivos está a desmoronar mais rapidamente do que o custo de reconstruir o contexto. À medida que a inferência fica mais barata e a orquestração amadurece, é mais eficiente persistir o estado de um agente do que reconstruí-lo do zero. As APIs de ferramentas assumem cada vez mais continuidade: credenciais, caches, artefatos intermediários. A persistência é recompensada em vez da apatridia.

Nesse mundo, a memória deixa de ser um recurso de conveniência. Torna-se parte do estado do sistema, comparável a um banco de dados e não a um log de bate-papo. Quando esse Estado é adequado e confiável, novas coisas tornam-se possíveis em grande escala: planos de longo prazo que duram dias ou semanas, coordenação entre muitos agentes e ferramentas e trabalho delegado que só é viável quando o Estado é confiável e estendido ao longo do tempo.

Neotoma foi construído para isso. Ele trata a memória como um estado explícito do sistema: entidades, eventos e relacionamentos digitados em um gráfico determinístico, e não um resíduo imediato ou incorporação de similaridade. O histórico de um agente pode ser reproduzido, inspecionado e fundamentado como parte do próprio sistema.

O que observar no próximo ano:
1. Estruturas de agente que anunciam execução de longa duração, em segundo plano ou retomável como um recurso principal.
2. Equipes discutindo a corrupção ou desvio do estado do agente como uma classe de bug distinta, em vez de reiniciar os agentes como uma correção.
3. Interfaces de produtos expondo o histórico do agente como algo inspecionável em vez de efêmero.
4. Equipes executando vários agentes que precisam de uma única fonte de verdade para entidades e decisões.

## 2. Erros de agência se tornarão economicamente visíveis

À medida que os resultados da IA ​​fluem cada vez mais diretamente para o faturamento, conformidade, resultados do cliente e fluxos de trabalho automatizados, o custo dos erros provavelmente mudará. O que atualmente é um inconveniente difuso torna-se um impacto económico explícito.

Quando os erros começam a aparecer em análises post-mortem, contratos e processos judiciais, a sociedade ganha uma imagem mais nítida de quem suporta os custos e quem é culpado. As organizações enfrentarão pressão para provar como as decisões foram tomadas e o que o sistema sabia na altura. Essa pressão repercutirá em normas profissionais, seguros e regulamentação. Indivíduos e pequenas equipes podem obedecer a padrões que foram originalmente projetados para grandes instituições com trilhas de auditoria. A vantagem é mais responsabilidade e menos falhas silenciosas. A desvantagem é que o nível de “explicável” e “auditável” pode subir mais rápido do que muitos estão preparados.

A razão estrutural para esta tendência ser provável é que a IA está a aproximar-se dos limites da tomada de decisão e não apenas das camadas consultivas. À medida que os resultados da IA ​​são incorporados a jusante em sistemas que acionam pagamentos, compromissos ou comunicações externas, os erros herdam a estrutura de custos desses sistemas. As organizações não podem continuar a tratar as falhas como “peculiaridades do modelo”, uma vez que elas se propagam em ações irreversíveis.

Hoje, os erros são frequentemente ignorados com regeneração ou ajustes imediatos. Amanhã, esses mesmos erros desperdiçarão dinheiro, prejudicarão a reputação ou criarão exposição legal.

Quando os erros são avaliados, as organizações param de perguntar se os resultados foram úteis. Começam a perguntar como esses resultados foram produzidos, em que informações se baseavam e se o processo pode ser reproduzido ou auditado.

Como corolário, a tolerância à memória aproximada ou ambígua diminui. A barra para o que é considerado bom o suficiente aumenta primeiro onde o dano é visível, depois esse padrão se afasta. Uma vez que os erros custam caro, a memória que você pode corrigir e rastrear torna-se uma infraestrutura, e não uma conveniência.

Neotoma se alinha com essa mudança ao impor a proveniência na camada de memória. Os fatos são armazenados com atribuição de origem, carimbos de data/hora e eventos de ingestão. As correções são aditivas e não destrutivas, permitindo que as equipes reconstruam exatamente o que um agente sabia no momento de uma decisão, em vez de adivinhar com base em registros parciais.

O que observar no próximo ano:
1. Falhas relacionadas à IA que aparecem em análises postmortem, disputas de clientes ou contextos jurídicos.
2. As equipes perguntam explicitamente "o que o agente sabia naquele momento?" depois dos erros.
3. Requisitos de rastreabilidade ou auditoria adicionados retroativamente aos fluxos de trabalho de IA.
4. Incidentes públicos atribuídos a erros de memória da IA; mudança de linguagem de “alucinação” para “falha do sistema” em postmortems.
5. Equipes pedindo “desfazer esse fato” ou “reverter o que o agente acredita” sem redefinições completas.
6. “Em que acredita o sistema e como evoluiu?” enquadrado como uma consulta em um gráfico consistente, em vez de uma chamada RAG.

## 3. Auditoria e conformidade cairão no mercado

Uma tendência relacionada: a pressão para provar como o trabalho foi produzido e o que o sistema sabia não ficará confinada às grandes empresas. Sempre que os erros acarretam um custo real – económico, legal ou de reputação – surge a exigência de defensabilidade e manutenção de registos. À medida que a IA se torna incorporada no trabalho profissional, consultores, agências, freelancers regulamentados e pequenas equipas nativas de IA enfrentarão as mesmas expectativas.

A razão estrutural é a difusão de responsabilidades. À medida que o uso da IA ​​se normaliza, a responsabilidade não desaparece. Ele se espalha. Clientes, seguradoras e reguladores respondem buscando controles compensatórios. A pressão da auditoria desce no mercado não porque as equipes pequenas queiram, mas porque o risco segue o uso.

Uma vez que as questões sobre como o trabalho foi produzido se tornam rotineiras, a memória sem proveniência torna-se uma desvantagem e não uma conveniência. Cronogramas estruturados, recall em nível de entidade e atribuição de fontes começam a funcionar como infraestrutura defensiva.

Neotoma alinha-se com esta mudança ao tratar a memória como algo que pode ser reconstruído no tempo, em vez de inferido retrospectivamente. A resolução da entidade, a ordenação temporal e a proveniência não são complementos. Eles são fundamentais para o modelo.

O que observar no próximo ano:
1. Divulgações de uso de IA que aparecem em contratos, declarações de trabalho ou diretrizes profissionais.
2. Solicitações de documentação de decisões assistidas por IA de clientes ou seguradoras.
3. Indivíduos ou pequenas equipes armazenam proativamente registros de interação de IA de forma defensiva.
4. Regulamentação que exige explicitamente a manutenção de registros ou explicabilidade para determinados usos de IA.

## 4. A memória da plataforma permanecerá opaca

É provável que grandes plataformas de IA continuem fornecendo recursos de memória úteis, mas fundamentalmente opacos. Seus incentivos favorecem o engajamento, a retenção e a otimização do modelo, em vez da proveniência controlada pelo usuário ou garantias de correção.

O efeito social é uma divisão entre aqueles que podem pagar para cuidar e aqueles que não podem. Pessoas e organizações que necessitam de garantias sólidas (auditoria, correção, portabilidade) pagarão por alternativas, construirão as suas próprias ou aceitarão o risco. Todos os outros confiarão na memória da plataforma e conviverão com a lacuna de confiança. Essa divisão pode reforçar as desigualdades existentes. Os que possuem bons recursos obtêm memória portátil e transparente; todos os outros obtêm conveniência com termos opacos. Com o tempo, as normas sobre o significado de “meus dados” e “meu histórico” podem divergir de acordo com o contexto e com quem você é. As expectativas cívicas e profissionais (por exemplo, que você possa mostrar o seu trabalho ou exportar os seus registros) podem aplicar-se apenas a alguns.

A razão estrutural pela qual isso persiste é [desalinhamento de incentivos](/posts/building-structural-barriers). As plataformas otimizam resultados agregados entre milhões de usuários, e não as garantias de correção exigidas por qualquer fluxo de trabalho individual. Expor a semântica da memória, regras de correção ou garantias de reprodução restringe a velocidade da iteração e aumenta a responsabilidade. A opacidade não é acidental. É protetor.

A memória pode melhorar, mas continuará difícil inspecionar, exportar, reproduzir ou raciocinar formalmente, especialmente entre ferramentas. As correções geralmente serão silenciosas, implícitas ou específicas do modelo.

Isso cria uma lacuna de confiança crescente. Os usuários podem confiar na memória da plataforma por conveniência e, ao mesmo tempo, desconfiar dela em contextos onde as consequências são importantes.

A soberania dos dados acrescenta uma pressão separada: as empresas e os indivíduos insistem cada vez mais que a memória do agente permaneça no seu ambiente, seja no local, no seu inquilino ou sob o seu controlo, em vez de na nuvem de um fornecedor.

Neotoma foi construído para essa lacuna. Seu design local, inspecionável e controlado pelo usuário é a alternativa para fluxos de trabalho onde a exatidão e a procedência são importantes. Você possui os dados e a semântica; você pode exportar, corrigir e raciocinar sobre o que o sistema sabe.

O que observar no próximo ano:
1. Recursos de memória que melhoram a recuperação, mas permanecem indocumentados ou não exportáveis.
2. Usuários perguntando o que o sistema realmente sabe – como uma visão abrangente do que ele acredita, lembra e inferiu, e não apenas bate-papo bruto ou exporta – e não obtém uma resposta clara.
3. Soluções alternativas (por exemplo, exportações, sincronização de terceiros, replicação manual) aumentando em vez de diminuir.
4. RFPs ou requisitos que especificam que a memória do agente deve permanecer no local ou no locatário do usuário.

## 5. A fragmentação da ferramenta persistirá

Apesar das narrativas recorrentes sobre a consolidação numa única plataforma ou espaço de trabalho de IA, o trabalho do conhecimento provavelmente permanecerá fragmentado. Os profissionais já operam em vários modelos, editores, copilotos, sistemas de documentos e estruturas de agentes.

A razão estrutural é que as ferramentas de IA são complementos e não substitutos. Cada um otimiza para uma parte diferente do fluxo de trabalho: idealização, execução, codificação, recuperação, comunicação. Melhorias marginais não colapsam a pilha. Os baixos custos de mudança e a rápida iteração do modelo desencorajam ainda mais a consolidação.

À medida que a expansão das ferramentas aumenta, o problema central passa da fragmentação da interface para a fragmentação do estado. O contexto reside em muitos lugares ao mesmo tempo e nenhuma superfície pode possuí-lo de forma realista.

Neotoma fica abaixo dessa fragmentação, em vez de tentar resolvê-la. Ao expor a memória através de uma interface de protocolo em vez de uma única UI, permite que múltiplas ferramentas e agentes leiam e gravem no mesmo estado subjacente sem forçar a convergência em um único fluxo de trabalho ou fornecedor.

O que observar no próximo ano:
1. Profissionais trocando modelos ou ferramentas no meio da tarefa, sem migrar o contexto de maneira limpa.
2. Reclamações repetidas sobre “perda de contexto” entre ferramentas.
3. Equipes padronizando fluxos de trabalho que abrangem explicitamente vários produtos de IA.

## 6. O uso da Agentic será medido

A execução do agente também deverá se tornar cada vez mais limitada pelo custo. A razão estrutural é simples: a computação está se tornando um item de linha visível. Não é necessária nenhuma reestruturação económica radical.

À medida que os gastos com IA aumentam, as organizações introduzem orçamento, atribuição e otimização. Uma vez visíveis os custos, a medição ocorre naturalmente.

Quando o uso é precificado, a ineficiência e o desvio deixam de ser preocupações abstratas. Recalcular o contexto, esquecer decisões anteriores ou repetir o trabalho torna-se um desperdício visível.

O modelo de memória determinística de Neotoma torna-se relevante aqui porque separa a memória durável do contexto transitório. Ao permitir a reprodução em vez da regeneração, trata a memória como uma superfície de otimização e não como um efeito colateral de inferência.

O que observar no próximo ano:
1. Equipes rastreando custos de uso de agente ou modelo por tarefa ou fluxo de trabalho.
2. Agentes conscientes do orçamento que alteram o comportamento com base nos gastos restantes.
3. Os esforços de otimização concentraram-se na redução de inferências redundantes, em vez de melhorar os prompts.

## Como essas tendências impactam os principais dados demográficos

Estas tendências actuam como condições de activação para diferentes grupos demográficos afectados. Neotoma não se torna importante através da persuasão. Torna-se importante quando a realidade remove alternativas.

**Operadores individuais nativos de IA e trabalhadores com conhecimento de alto contexto** são os primeiros: fundadores, consultores, pesquisadores e construtores individuais que usam IA profundamente no pensamento e na execução. A adoção é controlada por agentes com estado, erros economicamente visíveis e insatisfação com a memória opaca da plataforma. Uma vez que os resultados são importantes externamente (para clientes, colaboradores ou receitas), a incapacidade de responder "o que o sistema sabia quando isso foi produzido?" torna-se insustentável. O Neotoma torna-se atraente como um sistema de registro pessoal que pode coexistir com múltiplas ferramentas.

**Pequenas equipes nativas de IA e equipes híbridas de produtos ou operações** ficam em segundo lugar. Os indivíduos podem compensar a memória difusa. As equipes não podem. Uma vez que os agentes de cada pessoa se lembrem de factos ou suposições ligeiramente diferentes, os custos de coordenação aumentam. A fragmentação de ferramentas acelera isso, a pressão da auditoria legitima a memória compartilhada e o uso medido converte desvios em desperdício orçamentário. Neste ambiente, o Neotoma funciona menos como uma camada de produtividade e mais como uma infraestrutura cognitiva partilhada.

**Desenvolvedores integradores e criadores de ferramentas de IA** que incorporam agentes em produtos ou plataformas são os terceiros. Para eles, a falha de memória é uma falha de produção. À medida que os agentes se tornam autônomos, a recordação opaca torna-se impossível de testar e inaceitável. Quando os erros de memória são reformulados como falhas do sistema em vez de peculiaridades, os construtores começam a procurar primitivos de memória que se comportem como bancos de dados em vez de conversas. Neotoma torna-se relevante aqui como substrato, não como característica.

Em todos esses dados demográficos, a adoção é condicional e gradual, e não motivada por exageros.

## O que falsificaria essa visão

Qualquer visão séria do futuro deveria ser falsificável. Sem sinais claros que provem que está errado, não é uma tese, mas uma crença. Isto é diretamente importante para a estratégia de produto, porque a construção de um futuro que não se materializa leva à irrelevância elegante, em vez da adoção.

O falsificador mais significativo seriam as grandes plataformas de IA que fornecem memória genuinamente portátil, inspecionável, reproduzível e confiável em todas as ferramentas. Não memória no sentido de marketing, mas memória que pertence ao usuário, é exportável, semanticamente explícita e estável em todos os contextos. Se a memória nativa da plataforma se tornar oficial na prática (o que significa que os usuários e as organizações confiam nela como o registro canônico do que era conhecido e quando), a necessidade de uma camada de verdade externa entrará em colapso. Nesse mundo, a diferenciação central de Neotoma se desgasta em vez de se compor.

Um segundo falsificador seria uma consolidação significativa em um único espaço de trabalho de IA dominante que possui execução, memória e ferramentas de ponta a ponta. Se a pressão de fragmentação desaparecer porque uma superfície absorve a pilha com sucesso, a alavancagem dos substratos de memória compartilhada diminuirá drasticamente.

Um terceiro falsificador seriam os agentes que permaneceriam de curta duração, rigorosamente supervisionados e baratos para serem redefinidos, com as falhas continuando a ser tratadas principalmente pela reinicialização, em vez do diagnóstico do estado. Se os agentes de longa duração não se materializarem e a redefinição continuar a ser a estratégia de recuperação dominante, a memória determinística permanecerá opcional e não necessária.

Finalmente, se a pressão de auditoria e responsabilidade não conseguir descer no mercado (se a IA continuar a ser consultiva e não consequencial para a maioria dos profissionais), então a memória pesada sobre a proveniência permanecerá um exagero durante mais tempo do que o previsto.

Ficar atento a esses contra-sinais é tão importante quanto ficar atento à confirmação. Fornecem um aviso prévio de que os pressupostos que impulsionam a adoção estão a enfraquecer e que a estratégia deve adaptar-se em conformidade. Uma visão que não pode ser falsificada não pode ser corrigida, e um produto construído com base nessa visão corre o risco de se tornar bem concebido para um mundo que nunca chega.

## Memória como infraestrutura aberta e crítica

Esta não é uma previsão de que o mundo se torne mais filosoficamente comprometido com a verdade ou a correção.

É uma previsão de que os agentes se tornem stateful, os erros se tornem caros, as plataformas permaneçam opacas, as ferramentas permaneçam fragmentadas, a pressão de auditoria se espalhe e o uso seja precificado.

Se pelo menos parte dessa trajetória se mantiver, a memória deixa de ser um recurso de UX e passa a ser uma infraestrutura necessariamente aberta. Nesse mundo, os sistemas que tratam a memória como um estado determinístico e inspecionável já não são visionários. Eles são simplesmente a maneira mais barata de evitar que sistemas complexos falhem de maneira opaca e irrecuperável.

Neotoma não é o motor dessa mudança. É uma resposta plausível a isso.