要旨: グラフベースの検索拡張生成(GraphRAG)は、知識グラフ(KG)を用いて、大規模言語モデル(LLM)に対し構造化され意味的に一貫した文脈を与えることで、従来のRAGを拡張し、より根拠のある回答を生成します。しかし、GraphRAGの推論プロセスはブラックボックスのままであり、特定の構造化知識の断片が最終出力にどのように影響するかを理解する能力が制限されています。テキストベースの検索を前提に設計された、RAGシステム向けの既存の説明可能性(XAI)手法は、知識構成要素間の関係構造を通じてLLMの応答を解釈することに留まり、透明性と信頼性における重大なギャップが生じます。これに対処するために、私たちは新しい枠組みXGRAGを提案します。XGRAGは、グラフベースの摂動戦略を用いることで、GraphRAGシステムに対して因果的に根拠づけられた説明を生成し、個々のグラフ構成要素がモデルの回答に与える寄与を定量化します。XGRAGは、標準RAGのためのXAIベースラインであるRAG-Exと比較する広範な実験を行い、さまざまな質問タイプ、叙述(ナラティブ)の構造、そしてLLMにわたる頑健性を評価します。その結果、NarrativeQA、FairyTaleQA、TriviaQAにおいて、生成された説明と元の回答の整合性をF1-scoreで測定したところ、ベースラインRAG-Exに比べて説明品質が14.81%向上することを示しました。さらに、XGRAGの説明はグラフ中心性指標と強い相関を示し、グラフ構造を捉える能力が検証されました。XGRAGは、RAGシステムの解釈可能性を高める、透明なグラフベースの説明を通じて、信頼できるAIへのスケーラブルで汎用的なアプローチを提供します。
XGRAG:知識グラフに基づくリトリーバル・オーグメンテッド・ジェネレーションを説明するグラフネイティブ・フレームワーク
arXiv cs.AI / 2026/4/28
📰 ニュースIdeas & Deep AnalysisModels & Research
要点
- グラフベースのリトリーバル・オーグメンテッド・ジェネレーション(GraphRAG)は知識グラフを用いてLLMにより構造化された文脈を与える一方、推論プロセスは依然としてブラックボックスになりがちです。
- 本論文では、グラフベースの摂動(perturbation)を用いてGraphRAGの出力に対する因果的に根拠づけられた説明を生成する新しい説明可能性フレームワーク「XGRAG」を提案します。
- 実験ではXGRAGを、標準的なテキストベースRAG向けのXAIベースライン「RAG-Ex」と比較し、生成した説明と元の回答の整合性をF1スコアで評価した結果、説明品質が14.81%向上したことを示します。
- また、XGRAGの説明がグラフ中心性(centrality)指標と強く相関することから、基盤となるグラフ構造を適切に捉えられていることが示唆されます。
- 総じてXGRAGは、知識グラフの個々の構成要素が最終出力にどう寄与したかを定量化・解釈可能にし、RAGシステムの透明性と信頼性を高めることを目的としています。

