テキストでなくKVで注入する:KVIがRAGの構造的限界を突破する理由

Zenn / 2026/4/26

💬 オピニオンIdeas & Deep Analysis

要点

  • KVI(Knowledge Vector Injection)の考え方は、従来のRAGで使われる「テキストに変換してプロンプトへ投入する」流れでは構造的に情報が欠ける点を問題視している。
  • KV(Key-Value)として注入することで、参照対象の意味や関係をより保ったままモデルに渡せるため、RAGの限界を突破しやすいと論じている。
  • 重要情報を“検索→全文テキスト化→LLM入力”ではなく、“構造化された表現→注入”に寄せる設計思想が、推論の再現性や効率に寄与すると主張している。
  • KVIはRAGのパイプラインを置き換えるというより、RAGが抱える構造上の情報ロスを設計で回避するためのアプローチとして位置付けられている。
テキストでなくKVで注入する:KVIがRAGの構造的限界を突破する理由 TL;DR RAGの根本問題:外部知識はテキストトークンとして注入されるため、モデルのパラメトリックKV記憶と構造的に対等な地位を持てない Knowledge Capsules:文書コーパスから抽出した関係知識(S, R, O, I)を、凍結LLMでKVテンソルに事前コンパイルする非パラメトリック記憶ユニット KVIフレームワーク:コンパイル済みKVをアテンションキャッシュに直接注入し、外部知識がモデル内部の記憶と同等にsoftmax競争に参加できるようにする 一貫してSOTA:NQ、HotpotQ...

この記事の続きは原文サイトでお読みいただけます。

原文を読む →

テキストでなくKVで注入する:KVIがRAGの構造的限界を突破する理由 | AI Navigate