CoCR-RAG:概念指向のコンテキスト再構成によりWeb Q&Aでのリトリーバル拡張生成を強化する

arXiv cs.CL / 2026/3/26

💬 オピニオンSignals & Early TrendsIdeas & Deep AnalysisModels & Research

要点

  • 本論文では、異種の複数ソース文書から首尾一貫した知識密度の高いコンテキストを再構成することで、Web Q&Aにおけるリトリーバル拡張生成(RAG)を改善するフレームワークCoCR-RAGを提案する。
  • 取得したテキストから、AMR(Abstract Meaning Representation:抽象的意味表現)に基づく概念の蒸留ステップを用いて、融合前に安定した言語的根拠のある概念を抽出する。
  • 大規模言語モデルは、必要な文要素のみを補完することで統一されたコンテキストを再構成し、冗長で無関係な内容が事実整合性を損なうことを抑えることを目指す。
  • PopQAおよびEntityQuestionsでの実験により、CoCR-RAGは従来のコンテキスト再構成手法を大幅に上回り、異なるバックボーンLLM間でも堅牢であることが示され、プラグアンドプレイ可能なRAGコンポーネントとして機能し得ることが示唆される。