概要: 大規模言語モデル(LLM)は、言語生成に用いたとき、確信に満ちた内容を生成する一方で、事実としては誤っていることがしばしばあります(この現象は一般にハルシネーションとして知られています)。検索拡張生成(RAG)は、知識コーパス内の情報を特定し、それをモデルのコンテキストウィンドウに入れることで、事実誤認を減らそうとします。このアプローチは文書が構造化されたデータに対しては確立されていますが、特にグラフ上で複数ノード/複数ホップの推論を必要とするクエリに対しては、知識グラフ(KG)へ適応することは自明ではありません。私たちは、従来型のRAGから切り替える一般的な枠組みとしてULTRAGを提案します。市販のニューラルなクエリ実行モジュールをLLMに組み込むことで、LLMまたはその実行器に対する再訓練を一切行わずに、言語モデルが知識グラフ質問応答(KGQA)タスクで最先端の結果を容易に達成できることを示します。実験の結果、ULTRAGは最先端のKG-RAG解法と比較してより良い性能を達成し、Wikidata規模のグラフ(1.16億エンティティ、16億リレーション)に対して、同等またはより低いコストで言語モデルがインターフェースできることを可能にします。
UltRAG:知識グラフRAGのためのユニバーサルでシンプルかつスケーラブルなレシピ
arXiv cs.CL / 2026/4/1
📰 ニュースIdeas & Deep AnalysisModels & Research
要点
- 本論文では、古典的なKG-RAGが難しいマルチホップおよびマルチノードの質問応答を対象として、知識グラフに対してリトリーバル拡張生成(RAG)を適用するためのユニバーサル・フレームワークであるULTRAGを提案する。
- ULTRAGは、汎用の既製LLMにニューラルなクエリ実行モジュールを備えることで、再学習に頼るのではなく、LLMによるグラフ問い合わせを可能にし、KGQAを改善する。
- 著者らは、先行するKG-RAG手法と比較して、ULTRAGがKGQAベンチマークで最先端(state-of-the-art)の性能を達成したと報告している。
- 結果は、ULTRAGが既存の解決策と同等またはそれ以下の計算コストで、Wikidata規模のグラフ(1.16億エンティティ、16億リレーション)に接続できる可能性を示唆している。




