M-RAG: RAGをより高速に、より強力に、そしてより効率的にする
arXiv cs.AI / 2026/3/31
💬 オピニオンIdeas & Deep AnalysisModels & Research
要点
- 本論文は、テキストのチャンク分割によって生じがちな断片化、検索ノイズ、非効率といった問題に対処する、Retrieval-Augmented Generation(RAG)のチャンクレス(chunk-free)検索戦略であるM-RAGを提案する。
- 粗いテキストチャンクを取得する代わりに、M-RAGは構造化されたキー・バリュー(k-v)のメタマーカーを抽出する。軽量で意図に整合した検索キーで照合し、生成のためのより豊かなバリューを得る。
- 目的は、検索の表現力の高い品質を維持しつつ、生成から検索表現を切り離して、効率的かつ安定したクエリ—キー類似度のマッチングを可能にすることにある。
- LongBenchのサブタスクに対する実験では、トークン予算が異なる場合でも、M-RAGがチャンクベースのRAGベースラインより性能を向上させることが示され、特に低リソース環境での改善が大きい。
- 追加分析により、M-RAGは高い効率で、より回答に適した根拠(evidence)を取得できることが示され、チャンクベース手法に対するスケーラブルで頑健な代替として位置付けられる。



