ナレッジカプセル:LLM向けの構造化された非パラメトリック・メモリユニット
arXiv cs.CL / 2026/4/23
📰 ニュースDeveloper Stack & InfrastructureModels & Research
要点
- この論文は、LLMが知識をパラメトリックな重みに格納するため更新が高コストになる一方、一般的なRAGは取得した知識が入力トークンとして注意機構の中で競合するため影響が間接的で不安定になりがちだと主張しています。
- 「Knowledge Capsules(ナレッジカプセル)」として、正規化された関係知識を表す構造化された非パラメトリック・メモリユニットを提案し、凍結した基盤モデルを使って文書コーパスから直接構築できるとしています。
- 知識をテキストとして文脈に後付けする代わりに、External Key Value Injection(KVI)フレームワークによりカプセルを注意計算に適したキー/バリュー表現へコンパイルし、注意計算へ直接参加させます。
- 著者らは、複数のQAベンチマークでRAGやGraphRAGより一貫して良い結果が得られたと報告しており、特に長いコンテキストやマルチホップ推論で安定性と精度が向上したとしています。
- 貢献は、知識統合を文脈レベルのトークン増強から、メモリレベルの相互作用へ移すことで、安定性と精度の向上を狙う点にあります。




