আমি গত সপ্তাহে সারাহ উডার্সের থ্রেড দেখেছি এবং অবিলম্বে এটির অর্ধেকের সাথে একমত হয়েছি।

উডার্স, মেমজিপিটি (এখন লেটা) এর সহ-নির্মাতা, [তর্ক করেছেন যে মেমরি একটি প্লাগইন নয়, এটি একটি জোতা](https://x.com/sarahwooders/status/2040121230473457921)। জোতা অদৃশ্য সিদ্ধান্ত নেয় কোন বাহ্যিক সরঞ্জাম নিয়ন্ত্রণ করতে পারে না: কী কম্প্যাকশন থেকে বেঁচে থাকে, কীভাবে প্রসঙ্গ লোড হয়, এজেন্ট তার নিজস্ব নির্দেশাবলী পরিবর্তন করতে পারে কিনা। "একটি এজেন্ট জোতা দিয়ে মেমরি প্লাগ করতে বলা একটি গাড়িতে ড্রাইভিং প্লাগ করার মত।"

ফ্রেমিং বরাবর পাস করা সহজ. আমি স্থির পটভূমি হিসাবে হারনেস লাইনের পুনরাবৃত্তি শুনতে থাকি, পরিদর্শনের দাবি হিসাবে নয়। এটা আংশিক কারণ আমি অর্ধেক সঙ্গে একমত সঠিক.

## অদৃশ্য সিদ্ধান্তই বাস্তব

[Claude Code-এর একটি মাল্টি-লেভেল মেমরি হায়ারার্কি আছে যা জোতা তৈরি করা হয়েছে](https://docs.anthropic.com/en/docs/claude-code/memory): CLAUDE.md, সেশন স্টেট, কমপ্যাকশন নিয়ম, সিস্টেম মেসেজ ইনজেকশন। যখন [Claude Code কমপ্যাক্ট করে](https://docs.anthropic.com/en/docs/claude-code/best-practices) 20K-এর সাথে 100K-টোকেন কথোপকথন, তখন জোতা সিদ্ধান্ত নেয় কী বেঁচে থাকবে। কোনও বাহ্যিক সরঞ্জাম সেই সিদ্ধান্তের প্রতিলিপি বা ওভাররাইড করতে পারে না।

আহমেদ কিদওয়াই, যিনি [ভার্চুয়াল কনটেক্সট](https://github.com/virtual-context/virtual-context) তৈরি করেন, [AI তার জীবনের বেশিরভাগ সময় তার জীবন নিয়ে পড়তে ব্যয় করে](https://open.substack.com/pub/virtualcontext/p/ai-spends-most-of-its-life-reading)-এ ব্যবহারকারীর আসন থেকে একই কাঠামো বর্ণনা করেছেন। প্রতিটি বাঁক সম্পূর্ণ থ্রেড রিপ্লে করতে পারে, তাই বেশিরভাগ ইনপুট টোকেনগুলি ইতিমধ্যে যা ঘটেছে তা পুনরায় পড়তে যায়। যখন উইন্ডোটি পূর্ণ হয়, কমপ্যাকশন একটি সারাংশ দিয়ে কাঁচা ইতিহাস প্রতিস্থাপন করে। আপনি কি অদৃশ্য হয়ে গেছে তার একটি লাইন-আইটেম রসিদ পাবেন না।

একটি একক অধিবেশনের মধ্যে, প্রসঙ্গ উইন্ডোতে কী প্রবেশ করে, কী সংক্ষিপ্ত করা হয় এবং কী বাদ দেওয়া হয় সে সম্পর্কে জোতার পছন্দগুলি কার্যকর মেমরি সিস্টেম। উডার্স এই সম্পর্কে সঠিক.

## যুক্তি একটি জোতা অনুমান

থ্রেড উপসংহারে আপনাকে একটি মেমরি-প্রথম জোতা ব্যবহার করা উচিত। যে উপসংহার আপনি একটি ভিতরে কাজ করতে হবে.

আমি না. আমি আমার প্রাথমিক ইন্টারফেস হিসাবে কার্সার, নির্দিষ্ট কাজের জন্য ক্লড কোড, কথোপকথনের জন্য ChatGPT এবং অটোমেশনের জন্য কাস্টম স্ক্রিপ্ট ব্যবহার করি। এটি হল চারটি জোতা, প্রতিটি কী মনে রাখতে হবে সে সম্পর্কে নিজস্ব অদৃশ্য সিদ্ধান্ত নেয়।

আমি যাদের সাথে কথা বলি যারা এজেন্টদের সাথে তৈরি করে তারা তিন থেকে পাঁচটি টুল ব্যবহার করে। প্রতিটি আলাদাভাবে কমপ্যাক্ট করে, প্রসঙ্গ আলাদাভাবে লোড করে, আলাদাভাবে স্টেট স্টোর করে। ব্যবহারকারী তাদের সবার মধ্যে মানব সিঙ্ক স্তর হয়ে ওঠে।

আরও জোতা-এম্বেডেড মেমরি যোগ করা এটিকে আরও খারাপ করে তোলে, ভাল নয়। প্রতিটি টুল ভাল অভ্যন্তরীণ মেমরি পায়। তাদের কেউই রাজি নয়।

## তিনটি উদ্বেগ, একটি নয়

উডার্স কনটেক্সট উইন্ডো ম্যানেজমেন্ট, সেশন স্টেট এবং টেকসই অবস্থাকে একটি ধারণায় ভেঙে ফেলে যাকে সে "মেমরি" বলে। এগুলি স্থাপত্যগতভাবে স্বতন্ত্র।

**প্রসঙ্গ উইন্ডো ব্যবস্থাপনা**: এই মুহূর্তে প্রম্পটে কী খাপ খায়, কী সংকুচিত হয়, মডেলটি এই মোড়কে কী দেখে। এটি একটি জোতা উদ্বেগ. উডার্স ঠিক।

**সেশন অবস্থা**: একটি কথোপকথনের মধ্যে টিকে থাকে। এটি একটি জোতা উদ্বেগ.

**টেকসই অবস্থা**: উদ্ভব এবং সংস্করণ সহ সেশন, সরঞ্জাম এবং এজেন্ট জুড়ে টিকে থাকে। এটি অবকাঠামো, জোতা নয়।

কোন জোতা নির্ধারক, স্কিমা-বাউন্ড, শুধুমাত্র যোগ করার জন্য, উদ্ভবের সাথে ক্রস-প্ল্যাটফর্ম অবস্থা প্রদান করে না। প্রসঙ্গ ব্যবস্থাপনা ড্রাইভিং হয়. টেকসই অবস্থা হল নেভিগেশন ডেটা। এটি ড্রাইভিং সম্পর্কে অবহিত করে কিন্তু ড্রাইভট্রেনের ভিতরের অন্তর্গত নয়।

## এমনকি প্রসঙ্গ বাহ্যিক করা যেতে পারে

কিডওয়াই-এর [ভার্চুয়াল প্রসঙ্গ](https://github.com/virtual-context/virtual-context) হল একটি প্রক্সি যা আপনার ক্লায়েন্ট এবং আপস্ট্রিম LLM API-এর মধ্যে বসে। ক্লায়েন্ট একটি 20-মিলিয়ন-টোকেন প্রসঙ্গ উইন্ডো সেট করে। মডেলটির আসল উইন্ডোটি 200K। ভার্চুয়াল প্রসঙ্গ তাদের মধ্যে সংকুচিত, সূচী এবং পৃষ্ঠাগুলি। 52টি টুল চেইন সহ একটি 937K-টোকেন ক্লাউড কোড পেলোড কিউরেটেড সিগন্যালের ~65K-এ ভেঙে পড়ে।

[LongMemEval](https://github.com/virtual-context/virtual-context#benchmark-results), ভার্চুয়াল কনটেক্সট অর্ধেক খরচে সম্পূর্ণ কাঁচা প্রসঙ্গ সহ Claude Sonnet 4.5-এর জন্য 95% নির্ভুলতা বনাম 33% স্কোর করেছে। প্রক্সি ক্লাউড কোড, কার্সার, ওপেনক্লা বা বেস ইউআরএল গ্রহণ করে এমন যেকোনো ক্লায়েন্টের সাথে কাজ করে। VCATTACH দুটি ক্লায়েন্টকে প্ল্যাটফর্ম জুড়ে একই সংক্ষিপ্ত জ্ঞানের ভিত্তি ভাগ করতে দেয়।

মেকানিজম গুরুত্বপূর্ণ। ভিসি জোতা বাইপাস না. জোতা এখনও তার নিজস্ব কম্প্যাকশন এবং ট্রাঙ্কেশন সিদ্ধান্ত নেয় এবং API অনুরোধ রচনা করে। ভিসি বাধা দেয় যা একটি বেস-ইউআরএল পুনঃনির্দেশের মাধ্যমে নিচের দিকে অনুরোধ করে। যখন জোতা কথোপকথনের ইতিহাস ছেঁটে ফেলে, তখন ভিসি ছেঁটে ফেলা সনাক্ত করে এবং তার নিজস্ব টেকসই স্টোর থেকে পুনরুদ্ধার করে। মডেলে যা পৌঁছায় তা হল ভিসি-এর কিউরেটেড উইন্ডো, জোতা-এর কাঁচা আউটপুট নয়।

উডার্স ঠিক বলেছেন যে কোনো বাহ্যিক হাতিয়ার জোতাটির অভ্যন্তরীণ সিদ্ধান্তকে নিয়ন্ত্রণ করতে পারে না। কিন্তু জোতা এবং API এর মধ্যে বসে থাকা একটি প্রক্সি সেই সিদ্ধান্তগুলি পর্যবেক্ষণ করতে পারে এবং আংশিকভাবে তাদের বিপরীত করতে পারে। জোতা তার নিজস্ব কম্প্যাকশন পরে 937K টোকেন পাঠায়। VC মডেলটিতে 65K কিউরেটেড সংকেত পাঠায়। জোতা এখনও টুল লুপ এবং এজেন্ট চালায়. যে স্তরটি নির্ধারণ করে যে মডেলটি আসলে কী দেখে তা বাইরে থাকে।

এটি তিনটি স্তর ছেড়ে যায়, দুটি নয়। জোতা এজেন্ট চালায়. একটি ঐচ্ছিক প্রসঙ্গ ব্যবস্থাপনা স্তর জোতা এবং API এর মধ্যে বসতে পারে। এবং একটি টেকসই স্টেট লেয়ার সবকিছুর নিচে বসে থাকে, যে কোন সেশনের প্রেক্ষাপট যেভাবেই ম্যানেজ করা হোক না কেন সত্য তা ধরে রাখে।

## নিয়ন্ত্রণ বনাম মান

একটি বাহ্যিক হাতিয়ার জোতা এর কম্প্যাকশন সিদ্ধান্ত নিয়ন্ত্রণ করতে পারে না। সত্য। কিন্তু প্রশ্ন হল না রাষ্ট্রীয় স্তর কম্প্যাকশন নিয়ন্ত্রণ করে কিনা। এটা হয় যে এটা জোতা এর নেটিভ মেমরি না মান প্রদান করে.

বেশিরভাগ জোতা-নেটিভ মেমরি ক্ষণস্থায়ী। Letta হল ব্যতিক্রম: এটি ডিজাইন দ্বারা সেশন জুড়ে মেমরি বজায় রাখে। কিন্তু এমনকি লেটার মেমরিটি টুল-নির্দিষ্ট, অ-পোর্টেবল এবং অ-নির্ধারক। এলএলএম-চালিত টুল কলের মাধ্যমে কী সংরক্ষণ করতে হবে এবং কখন তা এজেন্ট সিদ্ধান্ত নেয়, তাই একই কথোপকথন বিভিন্ন মেমরির অবস্থা তৈরি করতে পারে। কার্সার এটি পড়তে পারে না। ক্লড কোড এটি পড়তে পারে না। একটি টেকসই স্টেট লেয়ার হল ক্রস-প্ল্যাটফর্ম, ডিটারমিনিস্টিক, ভার্সনড এবং সোর্স থেকে ট্রেস করা যায়।

মূল্যবান হওয়ার জন্য আপনাকে জোতা নিয়ন্ত্রণ করতে হবে না। আপনি জোতা এর সিদ্ধান্ত বেঁচে থাকা প্রয়োজন. শুধুমাত্র সংযুক্ত, টেকসই অবস্থা নকশা দ্বারা বেঁচে থাকে। যখন একটি জোতা প্রসঙ্গ কম্প্যাক্ট করে, তখন রাষ্ট্রীয় স্তর সম্পূর্ণ রেকর্ড ধারণ করে। আপনি যখন আগামীকাল একটি ভিন্ন টুল খুলবেন, তখন স্টেট লেয়ারে আপনি গতকাল যা সংরক্ষণ করেছেন তা থাকবে।

## ট্রিগারিং বনাম পরিবহন

Nicolò Boschi (Hindsight/Vectorize) [উডার্সের সাথে একমত](https://x.com/nicoloboschi/status/2042145292632379598): "MCP-এর মাধ্যমে মেমরি ব্যবহার করা এবং মডেলটি মেমরি থেকে তথ্য সঞ্চয় ও অনুসন্ধান করবে এমন আশা করা হতাশ।" উদ্বেগ বাস্তব. যদি মডেলটিকে সিদ্ধান্ত নিতে হয় যে কখন সংরক্ষণ করতে হবে এবং পুনরুদ্ধার করতে হবে, তবে এটি সংরক্ষণ করতে ভুলে যেতে পারে। যখন এটি গুরুত্বপূর্ণ তখন এটি পুনরুদ্ধার এড়িয়ে যেতে পারে।

MCP-এর পরিবর্তে, Hindsight ব্যবহার করে [hooks](https://docs.anthropic.com/en/docs/claude-code/hooks): সেশন শুরু, প্রম্পট জমা বা টুল সমাপ্তির মতো লাইফসাইকেল ইভেন্টে যে স্ক্রিপ্টগুলি স্বয়ংক্রিয়ভাবে কাজ করে। কোন এলএলএম তাদের বরখাস্ত করবে কিনা তা সিদ্ধান্ত নেয় না। Hindsight এর Claude কোড প্লাগইন প্রতিটি কথোপকথন স্বয়ংক্রিয়ভাবে ধরে রাখতে এবং প্রতিটি প্রম্পটে স্বয়ংক্রিয়ভাবে স্মরণ করতে চারটি লাইফসাইকেল হুক ব্যবহার করে৷ এটা কাজ করে।

কিন্তু এই যুক্তি দুটি বিষয়কে একত্রিত করে: কীভাবে স্মৃতি ট্রিগার হয় এবং কোথায় থাকে।

Hindsight এর হুকগুলিকে Hindsight API বলে। তারা জোতা এর বিল্ট-ইন মেমরি লিখতে না. হুক ট্রিগার হয়. বাহ্যিক সার্ভার হল স্টোরেজ। যে বিচ্ছেদ সমগ্র স্থাপত্য. ক্লড কোডের নেটিভ মেমরিতে লেখা একটি হুক একই সীমাবদ্ধতার উত্তরাধিকারী হবে: ক্ষণস্থায়ী, নন-পোর্টেবল, আগামীকাল কার্সারের কাছে অদৃশ্য।

হুক ট্রিগারিং সমস্যার সমাধান করে। তারা স্টোরেজ সমস্যার সমাধান করে না। প্রতিটি টেকসই মেমরি সিস্টেম উভয় প্রয়োজন.

হুক ব্যাপকভাবে পাওয়া যায় যদিও সর্বজনীনভাবে উপলব্ধ নয়। Claude Code 12+ ইভেন্ট সহ একটি প্লাগইন সিস্টেম আছে। বিটাতে 14+ ইভেন্ট সহ কার্সারে hooks.json আছে। OpenCode-এ কমপ্যাকশন কন্ট্রোল এবং সিস্টেম প্রম্পট ইনজেকশন সহ 20+ ইভেন্ট রয়েছে। কোডেক্সে ডেভেলপমেন্টে টুল-লেভেল হুক সহ সেশন হুক রয়েছে। ChatGPT এবং Claude ওয়েব অ্যাপ শুধুমাত্র MCP-ই থাকবে। Hindsight নিজেই ঠিক সেই ক্ষেত্রে একটি MCP সার্ভার পাঠায়।

উত্তর হল হুক যেখানে উপলব্ধ, MCP যেখানে নেই, উভয়ই প্রতিটি জোতার নীচে একই টেকসই রাষ্ট্রীয় স্তরে লেখা। "এমসিপি হতাশাহীন" নির্ভরযোগ্যতা ট্রিগার করার একটি বিবৃতি, মেমরি কোথায় থাকা উচিত সে সম্পর্কে নয়।

## স্তরগুলি পরিপূরক

পাঁচটি জোতা পাঁচটি ভিন্ন কম্প্যাকশন এবং প্রসঙ্গ সিদ্ধান্ত গ্রহণ করে যা এজেন্ট যা জানে তার পাঁচটি ভিন্ন সংস্করণ তৈরি করে। "ড্রাইভিং" সাদৃশ্যটি প্রসঙ্গ ব্যবস্থাপনার জন্য কাজ করে। আপনি যখন পাঁচটি গাড়ি চালান এবং তাদের সমস্ত জুড়ে সামঞ্জস্যপূর্ণ নেভিগেশন ডেটা প্রয়োজন তখন এটি ভেঙে যায়।

প্রসঙ্গ ব্যবস্থাপনা এবং টেকসই রাষ্ট্র প্রতিযোগিতা করছে না। একটি জোতা এজেন্ট এবং টুল লুপ চালায়। একটি প্রসঙ্গ স্তর, অন্তর্নির্মিত বা বাহ্যিক, মডেলটি প্রতিটি বাঁক কী দেখে তা পরিচালনা করে। একটি স্টেট লেয়ার সেশন এবং টুল জুড়ে কি সত্য তা পরিচালনা করে। কোন জোতা বা প্রক্সি যাচাইযোগ্য সত্য, উত্স, নির্ণয়বাদ, স্কিমা বৈধতা, বা ক্রস-টুল অ্যাক্সেস অফার করে না। জোতা-এম্বেডেড মেমরির জন্য যুক্তি একই সাথে প্রতিটি জোতার নীচে একটি ভাগ করা রাষ্ট্র স্তরের জন্য যুক্তি।

## আমি যা নির্মাণ করছি

আমি [নিওটোমা](https://neotoma.io) তৈরি করছি, একটি কাঠামোগত মেমরি স্তর যা যেকোন জোগানের নিচে থাকে: সত্তা রেজোলিউশন, টাইমলাইন, প্রোভেন্যান্স, ডিটারমিনিজম, ক্রস-প্ল্যাটফর্ম অ্যাক্সেস।

এই থ্রেড আমি পরবর্তী নির্মাণ করছি পরিবর্তন. আমি MCP কে একমাত্র ইন্টিগ্রেশন সারফেস হিসাবে বিবেচনা করেছি। এখন আমি একটি জীবনচক্র এক্সটেনশন স্তর হিসাবে হুক যোগ করছি। MCP প্রাথমিক এজেন্ট ইন্টারফেস থেকে যায়।

বিচ্ছেদ ইচ্ছাকৃত। এমসিপি এজেন্ট চুক্তির মালিক: সেশন শুরু হওয়ার সময় একবার লোড করা নির্দেশাবলী, কাঠামোগত স্টোরেজ টুলস যা এজেন্ট সম্পূর্ণ প্রাসঙ্গিক সচেতনতার সাথে কল করে। হুকগুলি জোতা চুক্তির মালিক: জীবনচক্রের ঘটনাগুলি এজেন্ট নিয়ন্ত্রণ করে না। এজেন্ট প্রতিটি প্রম্পট দেখার আগে একটি `UserPromptSubmit` হুক স্বয়ংক্রিয়ভাবে প্রাসঙ্গিক সত্তা পুনরুদ্ধার করে। 'PostToolUse' হুকগুলি পর্যবেক্ষণ হিসাবে প্রতিটি ফাইল সম্পাদনা এবং শেল কমান্ড ক্যাপচার করে। যদি এজেন্টের নিজস্ব ক্লোজিং স্টোর মিস হয়ে যায় তাহলে একটি `স্টপ` হুক কাঁচা কথোপকথন বজায় রাখে। একটি 'প্রি-কমপ্যাক্ট' হুক পর্যবেক্ষণ করে যে জোতাটি কী বাতিল করতে চলেছে।

ফলাফল হল MCP মানের সিলিং এর নীচে একটি নির্ভরযোগ্যতা মেঝে। হুক ছাড়া, MCP আজকের মত কাজ করে। MCP ব্যতীত, হুকগুলি কাঁচা পর্যবেক্ষণ ক্যাপচার সরবরাহ করে তবে কোনও কাঠামোগত সত্তা নিষ্কাশন করে না। উভয়ই একসাথে নির্ধারক পুনরুদ্ধার, প্যাসিভ পর্যবেক্ষণ, কম্প্যাকশন সচেতনতা এবং ক্র্যাশ পুনরুদ্ধার দেয়।

এটি Hindsight এর পদ্ধতির থেকে ভিন্ন। হিন্ডসাইট হুকগুলির মাধ্যমে কাঁচা প্রতিলিপিগুলি ক্যাপচার করে, তারপর সত্তাগুলিকে বের করতে একটি পৃথক সার্ভার-সাইড এলএলএম চালায়৷ তার মানে একটি দ্বিতীয় মডেল বিচার করে যা গুরুত্বপূর্ণ, অতিরিক্ত খরচ এবং অপারেশন প্রতি বিলম্বের সাথে। নিওটোমা সত্তা নিষ্কাশন এজেন্ট-চালিত রাখে: যে মডেলটি কথোপকথন বোঝে সে শূন্য প্রান্তিক এলএলএম খরচে নিষ্কাশন করে। হুক নীচে নির্ভরযোগ্যতা স্তর প্রদান করে, বুদ্ধিমত্তা নয়।

ক্লাউড কোড, কার্সার, ওপেনকোড এবং কোডেক্সের জন্য প্লাগইনগুলি পরে রয়েছে৷ হুকগুলো নিওটোমাকে লেখে, হানেসের অন্তর্নির্মিত স্মৃতিতে নয়। তাদের সকলেই একই টেকসই রাষ্ট্রীয় স্তরে পৌঁছায়, যেখানে উপলব্ধ হুক দ্বারা এবং যেখানে পাওয়া যায় না সেখানে MCP।

Wooders ঠিক যে জোতা প্রসঙ্গ মালিকানাধীন. Boschi সঠিক যে হুক নির্ভরযোগ্যতা ট্রিগার জন্য MCP বীট. কিদওয়াই দেখান যে এমনকি প্রসঙ্গ ব্যবস্থাপনাকেও বাহ্যিক করা যেতে পারে। আপনি যখন পাঁচটি জোতা ব্যবহার করেন তখন সত্যের মালিক কে সেই প্রশ্নটি তাদের কেউই সম্বোধন করে না। সেই উত্তরটি তাদের সবার নীচে থাকতে হবে।