再帰的アーキテクチャを永続的なAIメモリに適用する。再帰的言語モデル(MIT CSAIL、2025)に基づく。
https://arxiv.org/abs/2512.24601
https://github.com/aayoawoyemi/Ori-Mnemos
大規模言語モデル(LLMs)を情報を分解・探索・再構成することで、情報を力任せにメモリへ詰め込むのではなく、再帰的言語モデルはAIが単一のコンテキストウィンドウを超える入力を処理できるようにする。
私たちは同じ再帰的アーキテクチャを永続的なメモリにも適用し、検索品質が累積的に向上することを発見しました。 RedisとQdrantのクラウド基盤で構築されたメモリシステムと、データベースゼロ・クラウドゼロで同等の性能を持つ。ローカルのマークダウンファイルだけです。
Recursive Memory Harnessは、逐次的な検索の代わりに能動的な記憶想起へと一歩近づけます。
What is RLM
In December 2025, researchers at MIT CSAIL posited a simple inversion.
2025年12月、MIT CSAILの研究者たちは、単純な反転を提案した。
Instead of cramming everything into a sequential, linear context window that gets loaded fresh for every single query, you treat the data as an environment the model can tangibly navigate.
すべてを逐次的で線形のコンテキストウィンドウに詰め込んで、各クエリごとに新たに読み込むのではなく、データをモデルが実際に移動できる環境として扱う。
The Library Analogy
Think of the context window as a desk. Everything the AI knows during a query — every document, every retrieved passage, every instruction — has to fit on that desk.
コンテキストウィンドウを机と見なしてください。クエリ中にAIが知っているすべてのもの — すべての文書、取得したすべての抜粋、すべての指示 — はその机の上に収まらなければなりません。
RAG's answer to this problem is a librarian. You ask a question, the librarian runs into the stacks, grabs books that seem relevant based only on the titles, not even aware, much less comprehending the contents, and drops them on your desk.
RAGのこの問題への解決策は司書です。質問をすると、司書は蔵書の棚へ駆け上がり、タイトルだけに基づいて関連しそうな本を掴み取り、内容を理解しているとは言えず、ましてや内容を理解しているわけでもなく、それらをあなたの机の上に落とします。
As a result they often bring the wrong books.
その結果、しばしば間違った本を持って来ます。
And every book they bring takes up space on your desk, less room for actual thinking.
そして彼らが持ってくる本はすべて机の上のスペースを占有し、実際の思考の余地を減らします。
With recursion, you (the model) walk into the library yourself.
再帰を用いると、あなた(モデル)は自分で図書館に足を踏み入れます。
- カタログを読む
- 棚から本を取り出してざっと読む
- 自分用にメモを取る
- さっき学んだことを基により鋭い質問を持ってカタログへ戻る
- 別の本を引く
- 繰り返す
この過程全体を通じて机を清潔に保ち、最終的な結果だけを机に持ち戻します。
機械的には、ドキュメントはコンテキストウィンドウの外部にあるプログラミング環境の変数として格納されます。モデルはそれを小さなプログラムとして分割して探索します。セクションがまだ大きすぎる場合、モデルはそのセクションだけを対象としたサブコールを起動します— 一部を読んで報告するジュニア研究者です。再帰は必要なだけ深くネストします。
When It Comes to Memory, We Are Solving the Wrong Problem
メモリに関して、私たちは間違った問題を解こうとしている
All of the current systems, as it relates to memory and retrieval, are based on iterating on a broken process of consuming and loading as much information into that context window as possible.
現在のメモリと検索に関する全てのシステムは、可能な限り多くの情報をそのコンテキストウィンドウに取り込む壊れたプロセスを反復することに基づいています。
Build bigger desks. Spend millions creating more specialized systems for finding a needle in the haystack (RAG).
もっと大きな机を作り、干し草の山の中から針を見つけるための、より専門化されたシステムを作るのに何百万も費やす(RAG)。
Mechanically the current big players and labs — Mem0, Letta, Supermemory — all continue to allow the LLM to operate sequentially: store, search, retrieve, inject, forget. And optimize around it.
機械的には、現代の大手プレイヤーや研究所 — Mem0、Letta、Supermemory — はすべて、LLMが順次的に動作するようにさせ続けています。保存・検索・取得・注入・忘却。そしてそれを最適化します。
But as I wrote about here: we should be building harnesses that force the model to relate to pieces of information comprehensively and relatively.
しかし、ここに書いたように、私たちはモデルが情報の断片と包括的かつ相対的に関連づけるようなハーネスを構築すべきです。
We should be building solutions that model human cognition the same way a plane models a bird.
私たちは、人間の認知を飛行機が鳥をモデル化するのと同じ方法でモデル化する解決策を作るべきです。
Introducing Recursive Memory Harness
再帰的メモリハーネスの導入
RMH is a framework that posits persistent memory should be an environment, not a database.
RMH は、永続的なメモリはデータベースではなく環境であるべきだと主張するフレームワークです。
A harness that forces the model to relate to pieces of information comprehensively rather than as isolated nodes.
情報の断片を、個別のノードとしてではなく、包括的に関連づけるようモデルを強制するハーネスです。
Knowledge Graph as Prerequisite
前提としての知識グラフ
The database becomes a knowledge graph. Notes become nodes where each piece of information has relativity to other pieces of information, similar to neurons in the brain. Activating one, activates others at varying levels.
データベースは知識グラフとなる。ノートはノードとなり、各情報の断片が他の断片と相対する関係を持ち、脳のニューロンのように作用する。あるノードを活性化すると、他のノードも異なるレベルで活性化される。
RMH Enforces Three Constraints
RMH は三つの制約を課します
1. Retrieval must follow the graph.
ノートが取得されると、活性化はそれのエッジに沿って接続されたノートへ伝播します。システムは孤立した結果を返すことはできません。グラフが各情報片が触れるすべての他の情報との関係をコード化しているため、関連知識のクラスターを返すことを強制されます。
2. Unresolved queries must recurse.
検索プロセスがクエリを完全には解決しない場合、欠落している点を突くサブクエリを生成します。各サブクエリは新しいエントリポイントからグラフに入り、独自のパスを実行します。結果は蓄積します。各パスの後、システムは新しい関連情報がまだ見つかっているかを測定します。見つかっていない場合、システムは停止します。
3. Every retrieval must reshape the graph.
ノートへアクセスされると、2ホップ内の接続ノートは距離に応じて活性化が強化され、距離が離れるほど減衰します(拡散活性化)。新しい知識が以前取得したノートを参照すると、そのノートは追加のブーストを受けます。ノートは取得または引用されなくなると、エビングハウスの忘却曲線に沿ったべきべく、べき乗則に基づく減衰で減衰します。グラフは静的であってはなりません。使用により強化され、 neglect により剪定されます。
Any framework or system that retrieves isolated notes, answers in a single pass, or treats memory as static storage is not RMH.
Ori Mnemos: RMH-Powered, Open Source Memory Architecture for AI Agents
github.com/aayoawoyemi/Ori-Mnemos
Ori Mnemos is the first implementation of Recursive Memory Harness.
The AI world is converging on memory and context efficiency as the bottleneck. Your agent's memory, your LLM's memory, is exponentially increasing in value. We are already seeing implementations where agents are sharing knowledge and learning from each other across platforms, decentralized or not.
The default architecture in AI memory is cloud-hosted and API-gated — your agent's knowledge stored on someone else's servers, billed monthly, with no performance advantage over local alternatives.
The AI landscape is the wild west. Norms are being created and systems are being entrenched. Ori started as a philosophical endeavor to nip this in the bud before it becomes the standard.
The question: how can you build a memory architecture that performs at the level of cloud-dependent systems while keeping every piece of data yours?
The answer was a folder of markdown files connected by wiki-links, versioned with git, readable with your eyes. No database. No cloud. No vendor between you and your memory. That experiment produced a system that compresses the entire memory stack — Redis, Qdrant, cloud infrastructure — into local files that perform comparably on standard benchmarks with zero dependencies.
The system runs through MCP and CLI, with the CLI being finalized in the coming days. Any model connects to Ori and receives recursive graph navigation without writing code, without managing state. Open source under Apache 2.0. npm install ori-memory.
I use it in my personal workflow. Over 500 notes spanning six project domains. Over time my AI agent has become a personalized, specialized assistant that knows my work across all of them. It finds connections between projects I didn't draw myself. It surfaces decisions I made months ago when they become relevant again. All of it saved on my computer. All of it mine.
Benchmarks
HotpotQA tests multi-hop question answering — each question requires finding and combining information from exactly two different documents to produce an answer. Head-to-head on the same 50 questions, same scoring:
| 指標 | Ori (RMH) | Mem0 |
|---|---|---|
| R@5 | 90.0% | 29.0% |
| F1 | 52.3% | 25.7% |
| LLM-F1 (answer quality) | 41.0% | 18.8% |
| Speed | 142s | 1347s |
| API calls for ingestion | None (local) | ~500 LLM calls |
| Cost to run | Free | API costs per query |
| Infrastructure | Zero | Redis + Qdrant |
Close
Recursive Language Models proved that recursion over context is worth more than a bigger context window.
Recursive Memory Harness proves that relativity in memory outperforms isolated retrieval.
Ori Mnemos is the first implementation, open source, zero infrastructure, performing at the level of cloud-dependent systems on standard benchmarks.
Star the repo. Run the benchmarks yourself. Tell us what breaks, build ontop of and with RMH.
