要旨: 大規模言語モデル(LLMs)を用いた事実探索型の質問応答は、回答が最新の情報や矛盾する情報に依存する場合、依然として信頼性が低い。リトリーバルを補助したりツールを使用するLLMsは幻覚を抑制するが、しばしば暗黙的な計画に頼り、その結果ツールの使用が非効率になる。計画を事実検索および回答の統合から明示的に分離するモジュラーフレームワークを提案する。軽量な生徒プランナーは、教師-生徒フレームワークを介して訓練され、抽象推論手順と検索可能な事実リクエストからなる構造化された分解を生成します。教師信号には、計画の痕跡と事実リクエストのみが含まれ、事実回答や取得済みの証拠は提供されません。推論時には、プランナーが計画を作成し、プロンプト設計されたモジュールが検索と回答の統合を実行します。提案されたフレームワークを、検索補強型LLMsの極めて難易度の高いベンチマークであるSEAL-0で評価します。結果は、監督付き計画がモノリシックな推論モデルやプロンプトベースのツール補助フレームワークと比較して、正確性とレイテンシの双方を向上させることを示しており、明示的に学習された計画構造が信頼性の高い事実探索型LLMsには不可欠であることを示しています。
知識なしの推論を蒸留する: 信頼性の高いLLMsのためのフレームワーク
arXiv cs.CL / 2026/3/17
📰 ニュースSignals & Early TrendsIdeas & Deep AnalysisTools & Practical UsageModels & Research
要点
- 本論文は、情報が最新である場合や矛盾している場合に、検索機能やツール活用機能を備えていても、事実探索タスクにおけるLLMの信頼性が低いことを指摘している。
- 推論を、事実検索と回答の合成を明示的に分離するモジュール型フレームワークを導入し、幻覚を抑制し、効率を向上させる。
- 軽量な学生プランナーは、教師-生徒方式によって訓練され、抽象的推論ステップと検索可能な事実リクエストからなる構造化された分解を生成するように学習する。訓練時には事実回答を開示しない。
- 推論時には、プランナーが計画を出力する一方、検索と回答の合成はプロンプト設計済みのモジュールによって実行される。
- SEAL-0ベンチマークでは、監督付き計画はモノリシックな推論モデルやプロンプトベースのツール組み込みフレームワークと比較して、精度とレイテンシの両方を改善し、明示的な計画構造が事実探索を行うLLMsの信頼性を高めることを示している。