## کنورژن کا کسی نے منصوبہ نہیں بنایا

Manus ایک صارف کا سامنا کرنے والا AI ایجنٹ ہے۔ Claude Code Anthropic کا کوڈنگ اسسٹنٹ ہے۔ OpenClaw ایک اوپن سورس ذاتی AI ہے۔ Different teams, different codebases, different business models.

مارک ڈاؤن فائلوں میں تینوں اسٹور ایجنٹ میموری۔

Manus uses a `todo.md` checklist that rewrites itself after each step. OpenClaw uses `MEMORY.md` plus dated files in a `memory/` directory. Claude Code uses hierarchical `CLAUDE.md` files scoped to directories, with a 200-line cap on always-loaded content.

کوئی بھی دوسروں کی نقل کرتا نظر نہیں آیا۔ [Yaohua Chen on DEV Community](https://dev.to/imaginex/ai-agent-memory-management-when-markdown-files-are-all-you-need-5ekk) نے اسے "متضاد ارتقاء" کہا۔ جب مختلف رکاوٹوں کے تحت تین آزاد نظام ایک ہی فن تعمیر پر پہنچتے ہیں، تو فن تعمیر آپ کو مسئلہ کے بارے میں کچھ بتا رہا ہوتا ہے۔

مائیکل لینہم نے مارچ 2026 میں [اس کنورجنسی کو دستاویز کیا](https://medium.com/@Micheal-Lanham/the-markdown-file-that-beat-a-50m-vector-database-38e1f5113cbe)۔ ان کے تینوں سسٹمز کا تجزیہ ان تینوں سسٹمز کا تجزیہ ہے جو کہ عوامی میموری کی سب سے زیادہ جامع پیداوار ہے۔ ڈیٹا براہ راست کے ساتھ مشغول ہونے کے قابل ہے۔

## فائلیں پہلے سے طے شدہ نقطہ آغاز کیوں ہیں۔

واضح وضاحت سادگی ہے۔ Files are human-readable, git-trackable, and require no infrastructure. سچ لیکن نامکمل۔

اس کی گہری وجہ ایل ایل ایم اکنامکس ہے۔

Manus co-founder Yichao "Peak" Ji published the numbers. Manus processes 100 input tokens for every 1 output token. On Claude Sonnet, cached tokens cost roughly $0.30 per million. غیر محفوظ شدہ ٹوکن کی قیمت $3 فی ملین ہے۔ اس 10x پھیلاؤ کا مطلب ہے کہ ان پٹ لاگت کا غلبہ ہے۔ Anything that increases KV-cache hit rates saves real money.

File-based memory is stable, predictable text that plays well with KV-cache prefixes. Append-only context that rarely changes between calls means the model can reuse cached computations. A database-backed RAG system that assembles different context fragments each time defeats this optimization.

Manus's `todo.md` pattern is the clearest example. The agent rewrites the checklist after each step. This places the current plan in the most recent context window position. Information in the middle of long contexts gets ignored. A freshly rewritten plan file at the end of context fixes that with no retrieval infrastructure.

معاشی دلیل مانوس سے آگے پھیلی ہوئی ہے۔ Claude Code caps always-loaded memory at 200 lines because memory files consume tokens every session. رکاوٹ ذخیرہ نہیں ہے۔ It is attention budget. Files let you control what the model sees and where it appears in context.

یہ حادثاتی انتخاب نہیں ہیں۔ وہ لاگت سے آگاہ فن تعمیر ہیں۔

## جہاں فائلیں ٹوٹ جاتی ہیں۔

Lanham's article is honest about the failure modes. That honesty is the most valuable part of the analysis.

**Context budget pressure.** Claude Code warns that large `CLAUDE.md` files reduce model adherence. Files work until they get bloated and internally contradictory. A 200-line cap is a pragmatic fix, not a solution. As agent use scales, the file grows, contradicts itself, and nobody knows which version of a fact is current.

**Concurrency.** Multiple agents writing to the same memory file corrupt state. Lanham states it directly: "The moment multiple agents or users need to touch the same memory, concurrent file writes can corrupt data." سنگل ایجنٹ کی چھت اصلی ہے۔ Most agentic workflows [will not stay single-agent](/posts/when-agents-share-state-everything-breaks) forever.

**کوئی ورژن نہیں ہے۔** فائلیں اوور رائٹ ہوجاتی ہیں۔ OpenClaw's memory compaction triggers a silent agent turn that writes durable memories before truncation. کمپیکشن سے پہلے فائل میں کیا تھا؟ نامعلوم If the compacted version dropped a fact, it is gone. No observation log. No rollback.

**کوئی ثبوت نہیں۔** جب کوئی ایجنٹ میموری اندراج لکھتا ہے، تو اس بات کا کوئی ریکارڈ نہیں ہوتا ہے کہ اسے کس ذریعہ نے بنایا، کب، یا یہ پچھلے ہفتے لکھی گئی کسی چیز سے متصادم ہے۔ فائل ایک خلاصہ ہے۔ خلاصے ان کے اجزاء کو غیر واضح کرتے ہیں۔

**No entity resolution.** "Acme Corp" in one session and "ACME CORP" in the next. The agent re-infers identity each time from the context window. کوئی مستحکم IDs نہیں۔ انضمام کے کوئی اصول نہیں۔ کوئی کیننیکل ہستی نہیں۔ Every session is session-scoped inference.

**No schema constraints.** Any agent or tool can write anything to a memory file. کوئی توثیق نہیں۔ کوئی قسم کی جانچ نہیں ہو رہی۔ No enforcement of what a memory entry should contain. Bad writes propagate as truth.

These failures are not hypothetical. They are documented by the teams building these systems. They are the operational ceiling of file-based memory.

## The gap in the equilibrium

Lanham proposes an "equilibrium architecture" with four layers. Files as primary interface. Aggressive offloading to disk. Derived retrieval layers (vector index over files). Clear escalation to databases when concurrency and correctness demand it.

The first three layers are well-documented. The fourth is left as an exercise for the reader.

"Escalate to a database" assumes the database solves the integrity problems. Postgres does not give you versioned observations by default. It does not give you provenance chains. It does not give you deterministic entity resolution across documents. It does not give you schema constraints on agent-written state. Moving from a markdown file to a database table does not solve "no versioning." It solves "no concurrent access." Those are different problems.

The equilibrium has a gap between layers three and four. Between "markdown files that work for one agent" and "full database infrastructure" there is a missing layer. Structured state with integrity guarantees. No custom database schema required.

OpenClaw's architecture hints at this. اس کا ہائبرڈ بازیافت، قابل ترتیب ویکٹر/ٹیکسٹ ویٹنگ کے ساتھ sqlite-vec، وقتی خرابی، MMR تنوع، سادہ فائل کی تلاش سے زیادہ نفیس ہے۔ But it still treats the markdown files as source of truth. The index is a read optimization, not a state integrity layer.

The missing primitives are the same ones I identified [running my own agentic stack](/posts/agentic-search-and-the-truth-layer):

- **Versioned observations.** Every write appended, nothing overwritten. Reconstruct state at any point in time.
- **Provenance.** Every fact traceable to a source, a timestamp, and the agent or human that wrote it.
- **Deterministic entity resolution.** Canonical IDs based on stable rules, not per-session inference.
- **Schema constraints.** Validation on writes. Bad data rejected before it enters the store.

These are not database features. They are state integrity features. You can build them on top of a database. Postgres will not give them to you out of the box. And you cannot get them from a markdown file at all.

## Files are the real incumbent

The most important strategic insight from Lanham's analysis is not about files vs databases. It is about what the actual competitive landscape looks like.

Memory infrastructure companies raised tens of millions positioning against retrieval problems. [Mem0](https://mem0.ai) raised $24M. [Letta](https://www.letta.com) closed a $10M seed at a $70M valuation. [Zep](https://www.getzep.com)'s [Graphiti](https://github.com/getzep/graphiti) project crossed 20K GitHub stars. [MemPalace](https://github.com/MemPalace/mempalace) hit 46K stars in its first two weeks with a local-first, verbatim-storage approach. They solve real problems: durability across deployments, personalization, retrieval at scale, and structured recall.

But the systems handling the most agent interactions are not using vector databases for memory. They are using text files. Production evidence from three billion-dollar-scale platforms confirms that the real default is not an existing database product. یہ ایک فائل ہے۔

This changes the displacement story. The upgrade path is not from vector databases to something better. It is from markdown files to structured state. The people who need state integrity guarantees are not currently using Mem0 or Zep. They are currently writing to `MEMORY.md`.

## Migration, not replacement

لینہم کا اختتامی مشورہ روح کے لحاظ سے درست ہے: "مارک ڈاؤن فائل سے شروع کریں۔ آپ بعد میں ہمیشہ ڈیٹا بیس شامل کر سکتے ہیں۔" فائلیں ایک عقلی ابتدائی فن تعمیر ہیں۔ معاشیات ان کی حمایت کرتی ہیں۔ معائنہ حقیقی ہے۔ سادگی اہمیت رکھتی ہے۔

سوال یہ ہے کہ "بعد میں" کیسا لگتا ہے۔

میں اس اپ گریڈ پاتھ کے طور پر [Neotoma](https://github.com/markmhendrickson/neotoma) بنا رہا ہوں۔ سالمیت کے ساتھ ساختی حالت فائلوں کی کمی کی ضمانت دیتی ہے: ورژننگ، پرووینس، ہستی کی قرارداد، اسکیما کی رکاوٹیں۔

لاگت کی کارکردگی کا سوال اہم ہے۔ اگر اپ گریڈ کا راستہ KV-cache اکنامکس کو قربان کرتا ہے جس نے فائلوں کو عقلی بنایا ہے، تو یہ حقیقی اپ گریڈ نہیں ہے۔ نیوٹوما کا پڑھنے کا راستہ اس رکاوٹ کے ارد گرد ڈیزائن کیا گیا ہے۔ ایجنٹ MCP کے ذریعے اس تک رسائی حاصل کرتے ہیں۔ جواب سیاق و سباق کی ونڈو میں داخل کردہ ساختی متن ہے، وہی فارمیٹ جو ایک ماڈل فائل کو پڑھنے سے دیکھے گا۔ ہستی کے اسنیپ شاٹس کالوں کے درمیان مستحکم ہیں۔ ایک ہی ہستی سے دو بار استفسار کیا گیا ایک ہی متن واپس کرتا ہے جب تک کہ کسی مشاہدے نے اسے تبدیل نہ کیا ہو۔ مستحکم متن کا مطلب ہے مستحکم ٹوکن ترتیب۔ مستحکم ٹوکن کی ترتیب کا مطلب ہے KV-cache ہٹ۔

لکھنے کا راستہ وہ ہے جہاں معاشیات میں فرق ہے، اور انہیں کہاں ہونا چاہیے۔ سکیما کی توثیق کے ساتھ ایک سٹرکچرڈ اسٹور پر مشاہدہ لکھنے کی لاگت مارک ڈاؤن فائل میں لائن جوڑنے سے زیادہ ہوتی ہے۔ یہ اوور ہیڈ ورژننگ، پرویننس، اور تنازعات کا پتہ لگانے کی قیمت ہے۔ سوال یہ ہے کہ کیا یہ اوور ہیڈ ادائیگی کے قابل ہے؟ اگر آپ کو کبھی بھی یہ جواب دینے کی ضرورت نہیں پڑی ہے کہ "میرے ایجنٹ کو گزشتہ منگل کو کیا معلوم تھا" یا "کس تحریر نے اس ادارے کو خراب کیا،" تو نہیں۔ مارک ڈاؤن درست ہے۔ اگر آپ کو ان جوابات کی ضرورت ہے اور وہ حاصل نہیں کر سکے تو، لکھنے کے راستے کی قیمت اس مسئلے کا سب سے سستا حصہ ہے۔

ہجرت کی کہانی سیدھی سی ہے۔ آپ نے `MEMORY.md` سے آغاز کیا کیونکہ یہ صحیح ڈیفالٹ تھا۔ آپ اس وقت چھت کو مارتے ہیں جب آپ کو سیشنوں میں ورژننگ، یا ہم آہنگی رسائی، یا پرووینس، یا ہستی کے حل کی ضرورت ہوتی ہے۔ اگلا مرحلہ "پوسٹگریس مرتب کرنا اور اپنی مرضی کے مطابق اسکیما بنانا" نہیں ہے۔ یہ ایک منظم پرت ہے جو فائلوں کے بارے میں کام کرنے والی چیزوں کو محفوظ کرتے ہوئے آپ کو وہ ضمانتیں دیتی ہے: معائنہ، سادگی، مقامی-پہلا آپریشن۔

متضاد ارتقاء Lanham دستاویزی مسئلہ کی توثیق کرتا ہے. مجموعی طور پر اربوں مالیت کی تین ٹیمیں ایک ہی فن تعمیر پر پہنچیں اور ایک ہی دیواروں سے ٹکرائیں۔ دیواریں اگلی پرت کی وضاحت کرتی ہیں۔