[आरएजी (पुनर्प्राप्ति-संवर्धित पीढ़ी)](https://en.wikipedia.org/wiki/Retrieval-augmented_generation) बाहरी कॉर्पस से प्रासंगिक अंशों को पुनर्प्राप्त करके एलएलएम को बढ़ाता है, अक्सर एम्बेडिंग और समानता खोज के माध्यम से, फिर उन्हें संदर्भ के रूप में फीड करता है ताकि मॉडल अप-टू-डेट या डोमेन-विशिष्ट डेटा से उत्तर दे सके।

यह दस्तावेज़ खोज के लिए अच्छा काम करता है। एजेंट मेमोरी के लिए, यह अलग हो जाता है।

किंग्स कॉलेज लंदन और एलन ट्यूरिंग इंस्टीट्यूट का एक नया पेपर, "बियॉन्ड आरएजी फॉर एजेंट मेमोरी: रिट्रीवल बाय डिकॉप्लिंग एंड एग्रीगेशन" (हू एट अल., फरवरी 2026; [पेपर देखें](https://arxiv.org/abs/2602.02007)), इसका कारण बताता है और एक बेहतर दृष्टिकोण की ओर इशारा करता है।

## एजेंट मेमोरी के लिए RAG कम क्यों पड़ता है

मानक RAG एक बड़े, मिश्रित कोष को मानता है: पाठ को एम्बेड करें, समानता के आधार पर [top-k](https://en.wikipedia.org/wiki/Nearest_neighbor_search) को पुनः प्राप्त करें, संदर्भ के रूप में संयोजित करें।

एजेंट मेमोरी इसके विपरीत है: एक बंधी हुई, सुसंगत धारा जहां एक ही तथ्य कई वाक्यांशों में प्रकट होता है। यहां RAG लागू करने से तीन समस्याएं पैदा होती हैं:

1. **अनावश्यक टॉप-के.** आप पूछते हैं "मैंने आखिरी बार दंत चिकित्सक को कब देखा था?" दस्तावेज़ संग्रह में, टॉप-के विभिन्न स्रोतों से कुछ प्रासंगिक पैराग्राफ लौटा सकता है। एजेंट की स्मृति में, कई खंड लगभग एक ही बात कहते हैं ("दंत चिकित्सक की नियुक्ति 15 मार्च को", "दंत चिकित्सक की नियुक्ति 15 मार्च को," "दंत चिकित्सक की नियुक्ति 15 मार्च के लिए बुक की गई")। टॉप-के दोहराव से भर जाता है। पेपर इसे "एकल घने क्षेत्र में पतन" कहता है। समानता उस चीज़ को अलग करने में विफल रहती है जो *आवश्यक* है और जो केवल *समान* है।
2. **काँट-छाँट करने से साक्ष्य की शृंखलाएँ टूट जाती हैं।** आप पूछते हैं "क्या हमने चालान विवाद सुलझा लिया?" उत्तर एक श्रृंखला पर निर्भर करता है: "चालान #123 विवादित था," फिर "हम आंशिक धन-वापसी के लिए सहमत हुए," फिर "सहमत राशि का भुगतान किया।" पोस्ट-हॉक प्रूनिंग "पेड इनवॉइस #123" रख सकती है और पहले वाले टर्न को गिरा सकती है। तब मॉडल बिना यह जाने कि कोई विवाद था, "हां, सुलझ गया" उत्तर देती है। टुकड़ों की काट-छाँट अस्थायी रूप से साक्ष्यों को जोड़ती है और गलत उत्तर उत्पन्न करती है।
3. **समानता संरचना को नजरअंदाज करती है।** आप पूछते हैं "बार्सिलोना यात्रा की स्थिति क्या है?" आपको परियोजना, कार्य (उदाहरण के लिए उड़ानें बुक करना) और परिणाम की आवश्यकता है। समानता उन हिस्सों को लौटाती है जो "बार्सिलोना" या "यात्रा" का उल्लेख करते हैं: शायद एक यादृच्छिक उल्लेख, एक पिछली यात्रा, एक अलग परियोजना से एक कार्य। आपको एक संरचनात्मक पथ (यह परियोजना, ये कार्य, ये परिणाम) की आवश्यकता है। समानता उसे कूटबद्ध नहीं करती। संरचना करती है.

## समानता पर संरचना

एक बेहतर तरीका यह है कि जो लोड होता है उसे चलाने के लिए संरचना का उपयोग किया जाए, समानता का नहीं। इकाइयाँ टाइप करें (कार्य, संपर्क, लेन-देन, घटनाएँ) और स्कीमा, इकाई आईडी, संबंध और समयसीमा के अनुसार पुनर्प्राप्त करें। अवलोकनों और व्युत्पन्न आउटपुट को संपूर्ण इकाइयों के रूप में रखें; साक्ष्य ब्लॉकों के अंदर कांट-छांट न करें। समान इनपुट और समान स्कीमा समान आउटपुट देते हैं। क्रिटिकल पथ में कोई एलएलएम नहीं।

## पेपर क्या दिखाता है

पेपर का सिस्टम (xMemory) एम्बेडिंग और एलएलएम सारांश के साथ एक चार-स्तरीय पदानुक्रम (एपिसोड से संदेश से लेकर थीम तक शब्दार्थ) बनाता है। यह LoCoMo और PerLTQA पर पांच अन्य प्रणालियों (Naive RAG[^1], A-Mem[^2], MemoryOS[^3], LightMem[^4], Nemori[^5]) को मात देता है, जो लंबी-बातचीत मेमोरी और व्यक्तिगत दीर्घकालिक प्रश्न उत्तर के लिए बेंचमार्क डेटासेट हैं। पेपर को एम्बेडिंग या एलएलएम की आवश्यकता नहीं है; इसके लिए संरचना की आवश्यकता है. आप सीखे गए पदानुक्रम (xMemory) या नियतात्मक, स्कीमा-प्रथम डिज़ाइन के साथ वहां पहुंच सकते हैं। पेपर एलएलएम-जनित संरचना (ए-मेम, मेमोरीओएस) में नाजुकता का भी दस्तावेजीकरण करता है: स्वरूपण विचलन, असफल अपडेट। नियतात्मक, स्कीमा-प्रथम संरचना एक अधिक विश्वसनीय आधार है।

## xMemory बनाम नियोटोमा

नियोटोमा [संरचित मेमोरी परत](/पोस्ट/ट्रुथ-लेयर-एजेंट-मेमोरी) है जिसे मैं बना रहा हूं: स्कीमा-प्रथम, नियतात्मक, उद्गम और रीप्ले के लिए बनाया गया। दोनों प्रणालियाँ RAG से आगे बढ़ती हैं; वे संरचना बनाने के तरीके में भिन्न हैं।

**xMemory** एम्बेडिंग और एलएलएम सारांश के साथ एक चार-स्तरीय पदानुक्रम (एपिसोड से संदेश से लेकर थीम तक शब्दार्थ) बनाता है। एपिसोड सन्निहित ब्लॉक हैं; शब्दार्थ पुन: प्रयोज्य तथ्य हैं; उच्च-स्तरीय पहुंच के लिए थीम समूह शब्दार्थ। एक विरल-शब्दार्थ उद्देश्य विषय आकार को संतुलित करता है। बहुत बड़ा होने से अनावश्यक पुनर्प्राप्ति होती है; बहुत छोटे टुकड़े सबूत. पुनर्प्राप्ति ऊपर से नीचे है: विषयों और शब्दार्थों का एक संक्षिप्त सेट चुनें, फिर अक्षुण्ण एपिसोड (और वैकल्पिक रूप से संदेश) तक विस्तार करें, जब यह पाठक मॉडल की अनिश्चितता को कम कर दे। इकाइयों के अंदर कोई काट-छांट नहीं। उन बेंचमार्क पर यह गुणवत्ता और टोकन उपयोग पर पांच आधार रेखाओं को पीछे छोड़ देता है। पेपर नोट करता है कि एलएलएम-जनरेटेड संरचना (उदाहरण के लिए ए-मेम, मेमोरीओएस में) भंगुर है: स्वरूपण विचलन, असफल अपडेट। क्योंकि xMemory एलएलएम सारांश के साथ अपना पदानुक्रम बनाता है, यह उसी भंगुरता को अपनाता है।

**नियोटोमा** महत्वपूर्ण पथ में एलएलएम के बिना संरचना बनाता है। संस्थाएँ टाइप की जाती हैं; रिश्ते और समयसीमा स्पष्ट हैं; पुनर्प्राप्ति स्कीमा, इकाई आईडी, संबंध और समय सीमा का उपयोग करती है। समान इनपुट और स्कीमा समान आउटपुट देते हैं। स्कीमाएँ अभी भी विकसित होती हैं। अज्ञात फ़ील्ड एक संरक्षण परत में उतरते हैं। एक नियतात्मक पाइपलाइन स्कीमा में उच्च-विश्वास वाले क्षेत्रों को बढ़ावा दे सकती है। एक एलएलएम लंबित अनुशंसाओं के रूप में नए क्षेत्रों या प्रकारों का सुझाव दे सकता है, जिन्हें केवल टूलींग या मानव अनुमोदन के माध्यम से लागू किया जाता है। अनुमान सलाहकारी रहता है: स्कीमा परिवर्तन टूलींग या मानव अनुमोदन के माध्यम से होते हैं; निष्कर्षण और कमी नियतिवादी बने रहते हैं; स्कीमा सत्य का स्रोत बनी हुई है। पेपर की आलोचना तब लागू होती है जब मॉडल संरचना को *ड्राइव* करता है, न कि तब जब यह सुझाव देता है और मनुष्य या टूलींग लागू होते हैं। अंतर्ग्रहण-से-पुनर्प्राप्ति नियतात्मक रहता है।

### तुलना

| | एक्समेमोरी | नियोटोमा |
|--|--------|--------|
| संरचना स्रोत | एंबेडिंग + एलएलएम सारांश (एपिसोड, शब्दार्थ, विषय-वस्तु) | स्कीमा-प्रथम, नियतात्मक निष्कर्षण और रिड्यूसर |
| पदानुक्रम | चार स्तर (संदेश, एपिसोड, शब्दार्थ, विषय), विरल-शब्दार्थ उद्देश्य द्वारा निर्देशित | टाइप की गई इकाइयाँ, रिश्ते, समयसीमाएँ (कोई निश्चित "स्तर नहीं") |
| पुनर्प्राप्ति | ऊपर से नीचे: ग्राफ़ पर प्रतिनिधि चयन, फिर अक्षुण्ण एपिसोड/संदेशों तक अनिश्चितता-आधारित विस्तार | स्कीमा, इकाई आईडी, रिश्ते, समयसीमा के अनुसार |
| अतिरेक नियंत्रण | प्रतिनिधि चयन + तभी विस्तार करें जब अनिश्चितता कम हो जाए | संरचनात्मक प्रश्न वही लौटाते हैं जो आप माँगते हैं; कोई समानता पतन नहीं |
| अक्षुण्ण इकाइयाँ | हां (एपिसोड/संदेशों के अंदर कोई काट-छांट नहीं) | हां (टिप्पणियां और इकाइयां संपूर्ण रखी गईं) |
| नियतिवाद | नहीं (एलएलएम-जनित संरचना भिन्न होती है) | हाँ (समान इनपुट, समान स्कीमा, समान आउटपुट) |
| भंगुरता | पेपर एलएलएम फ़ॉर्मेटिंग विचलन, समान सिस्टम में विफल अपडेट का हवाला देता है | स्कीमा और कोड स्पष्ट हैं; क्रिटिकल पथ में कोई एलएलएम नहीं |

### सापेक्ष लाभ

**xMemory** तब उत्कृष्ट होता है जब इनपुट एक वार्तालाप स्ट्रीम होता है और आप स्कीमा को परिभाषित किए बिना संरचना चाहते हैं। उदाहरण: एक सहायक के साथ लंबे समय तक चलने वाली चैट जहां आप पूछते हैं "हमने यात्रा के बारे में क्या निर्णय लिया?" या "मैंने आखिरी बार बजट का जिक्र कब किया था?" xMemory एपिसोड, शब्दार्थ और थीम बनाता है; पुनर्प्राप्ति टोकन-कुशल है. यह तेज़ प्रोटोटाइप (समर्थन टिकट, मीटिंग नोट्स) में भी फिट बैठता है जहां आप अभी तक स्कीमा लिखना नहीं चाहते हैं। आप पदानुक्रम बहाव को स्वीकार करते हैं और इकाई द्वारा ऑडिटेबिलिटी या प्रथम श्रेणी क्वेरी की आवश्यकता नहीं है।

**नियोटोमा** तब उत्कृष्ट होता है जब आपको ट्रैसेबिलिटी की आवश्यकता होती है या आपका डेटा पहले से ही संरचित है। उदाहरण: ऑडिट योग्य निर्णय (भुगतान, समझौते, कार्य परिणाम) जहां समान इनपुट और स्कीमा से समान स्नैपशॉट मिलना चाहिए। स्कीमा परिवर्तन को संस्करणबद्ध किया जाता है और नियतात्मक रूप से लागू किया जाता है; रास्ते में कोई एलएलएम नहीं. यह संबंधों और समयसीमा के साथ टाइप की गई इकाइयों (कार्य, संपर्क, लेनदेन, घटनाओं) के लिए भी उपयुक्त है। इकाई प्रकार, आईडी, संबंध या समय सीमा के आधार पर क्वेरी। नियोटोमा उन्हें मूल निवासी मानता है; xMemory को टेक्स्ट को क्रमबद्ध करने की आवश्यकता होगी और प्रथम श्रेणी की पहुंच खो देगी।

## बातचीत में पुनरावृत्तीय संरचना

बातचीत में अक्सर संरचना उभरती है: "उसके लिए एक कार्य जोड़ें," "रिकॉर्ड करें कि हम 500 का भुगतान करने के लिए सहमत हुए," और एजेंट कार्य करता है। दोनों प्रणालियाँ इसे अलग-अलग तरीके से संभालती हैं।

**xमेमोरी:** बातचीत प्राथमिक वस्तु है। एजेंट क्या करता है (उदाहरण के लिए "मैंने दंत चिकित्सक के लिए एक कार्य बनाया है") संदेश स्ट्रीम में रहता है और एपिसोड, शब्दार्थ और थीम में प्रवाहित होता है। आपको एक बेहतर सीखा हुआ पदानुक्रम मिलता है लेकिन कोई अलग, क्वेरी करने योग्य इकाई ग्राफ़ नहीं मिलता है। संरचना पदानुक्रम के अंदर रहती है।

**नियोटोमा:** बातचीत अवलोकन का एक स्रोत है। जब एजेंट कोई कार्य, संपर्क या लेनदेन बनाता या अपडेट करता है, तो वे ऑपरेशन अवलोकन और इकाई स्नैपशॉट उत्पन्न करते हैं। संवाद से नए क्षेत्र एक संरक्षण परत में आ सकते हैं और आत्मविश्वास अधिक होने पर स्कीमा में पदोन्नत किए जा सकते हैं। संवाद और संरचित ग्राफ़ सिंक में रहते हैं क्योंकि दोनों एक ही स्टोर में लिखते हैं।

**अलग-अलग पुनर्प्राप्ति।** xMemory पदानुक्रम पर सिमेंटिक पुनर्प्राप्ति का समर्थन करता है। प्राकृतिक-भाषा के प्रश्न ("हमने दंत चिकित्सक के बारे में क्या निर्णय लिया?") विषय-वस्तु, शब्दार्थ, या अक्षुण्ण एपिसोड लौटाते हैं। यह संरचनात्मक पुनर्प्राप्ति (आईडी और संबंधों के साथ कोई इकाई प्रकार नहीं) का समर्थन नहीं करता है। इससे तीन प्रकार के मामलों में अपेक्षित विफलताएँ होती हैं:

- **साक्ष्य बारी-बारी से फैल गए।** "क्या हमने चालान विवाद सुलझा लिया?" विवाद, बातचीत और भुगतान अलग-अलग प्रकरणों या विषयों में रह सकते हैं; पुनर्प्राप्ति एक या दो को सामने ला सकती है और बाकी को छोड़ सकती है, इसलिए मॉडल गलत या अपूर्ण उत्तर देता है।
- **प्रश्न निर्धारित करें।** "शुक्रवार से पहले कौन से कार्य देय हैं?" या "एक्स से संपर्क करने के लिए सभी भुगतान दिखाएं।" फ़िल्टर करने के लिए कोई कार्य या लेन-देन इकाइयाँ नहीं हैं; आपको सिमेंटिक मिलान मिलते हैं (वे संदेश जिनमें "कार्य" और "शुक्रवार" या "संपर्क एक्स" का उल्लेख होता है), कोई निश्चित सूची नहीं, इसलिए परिणाम आंशिक या शोर वाले होते हैं।
- **रिलेशनशिप ट्रैवर्सल।** "प्रोजेक्ट Y में कौन से कार्य अभी भी लंबित हैं?" प्रोजेक्ट-कार्य ग्राफ़ के बिना, पुनर्प्राप्ति वार्तालाप स्निपेट लौटाती है जो कुछ कार्यों या परियोजनाओं को छोड़ सकती है; आप संबंध के आधार पर विश्वसनीय रूप से गणना नहीं कर सकते।

नियोटोमा दोनों का समर्थन करता है। जब डेटा स्टोर में रहता है तो आप अर्थ-शैली वाले प्रश्न पूछ सकते हैं। आपको इकाई प्रकार, आईडी, संबंध और समय विंडो द्वारा संरचनात्मक पुनर्प्राप्ति भी मिलती है, इसलिए क्वेरी सेट करें और संबंध ट्रैवर्सल पूर्ण, प्रथम श्रेणी के परिणाम लौटाएं। ट्रेडऑफ़ यह है कि आपको स्कीमा और एक स्टोर की आवश्यकता है जो उन टिप्पणियों को स्वीकार करता है।

## समानता पर संरचना, भंगुरता पर स्कीमा-प्रथम

एजेंट मेमोरी के लिए, कच्चे पाठ पर समानता विफल हो जाती है। पुनर्प्राप्ति को संरचना द्वारा संचालित किया जाना चाहिए: आप स्ट्रीम को कैसे विघटित और व्यवस्थित करते हैं, न कि कितने भाग एक क्वेरी से मेल खाते हैं। पेपर से पता चलता है कि एक सीखा हुआ पदानुक्रम (xMemory) अनुभवहीन RAG को मात देता है और LLM-जनित संरचना भंगुर होती है।

हालाँकि, एक नियतात्मक, स्कीमा-प्रथम पथ आपको उस भंगुरता के बिना समान संरचनात्मक लाभ देता है। मैं बाद वाले पर [नियोटोमा](https://github.com/markmhendrickson/neotoma) का निर्माण कर रहा हूं ताकि निगलना और पुनर्प्राप्ति प्रतिलिपि प्रस्तुत करने योग्य रहे और स्कीमा सत्य का स्रोत बना रहे।

[^1]: **नाइव आरएजी:** यादें एम्बेड करें, समानता के आधार पर निश्चित टॉप-के को पुनः प्राप्त करें, कोई पदानुक्रम नहीं। कोई अलग परियोजना नहीं; [पेपर](https://arxiv.org/abs/2602.02007) में परिभाषित बेसलाइन।
[^2]: **ए-मेम:** एलएलएम एजेंटों के लिए एजेंटिक मेमोरी; ज़ेटेलकास्टेन-शैली लिंक और मेमोरी नेटवर्क के लिए एजेंट-संचालित अपडेट। [प्रोजेक्ट](https://github.com/agiresearch/A-mem)।
[^3]: **मेमोरीओएस:** वैयक्तिकृत एजेंटों के लिए अद्यतन, पुनर्प्राप्ति और पीढ़ी मॉड्यूल के साथ पदानुक्रमित लघु/मध्य/दीर्घकालिक भंडारण। [प्रोजेक्ट](https://github.com/BAI-LAB/MemoryOS)।
[^4]: **लाइटमेम:** एटकिंसन-शिफरीन चरणों से प्रेरित हल्की मेमोरी; विषय-जागरूक समेकन और ऑफ़लाइन दीर्घकालिक अद्यतन। [प्रोजेक्ट](https://github.com/zjunlp/LightMem)।
[^5]: **नेमोरी:** अनुकूली ज्ञान के लिए घटना विभाजन और भविष्यवाणी-अंशांकन के साथ स्व-संगठित एपिसोडिक मेमोरी। [प्रोजेक्ट](https://github.com/nemori-ai/nemori)।