PassiveQA:教師ありファインチューニングによるエピステミックに較正された質問応答のための3アクション・フレームワーク

arXiv cs.CL / 2026/4/7

📰 ニュースIdeas & Deep AnalysisModels & Research

要点

  • 本論文は、LLMベースのQAシステムがしばしばクエリは完全に指定されていることを前提としており、不十分または曖昧な情報に対して過度に自信のある回答や幻覚(ハルシネーション)を生むと主張する。
  • 著者らは、モデルがエピステミックな十分性に基づいて、3つの行動—Answer(回答)、Ask for clarification(釈明を求める)、Abstain(棄権)—から選択する意思決定に基づく設定を研究する。
  • 著者らは、標準的および強化RAGアプローチでは、この「エピステミックな気づき」を確実に提供できず、必要な変数が欠けている場合でも回答を生成しがちであることを見出す。
  • そこで著者らはPassiveQAを提案する。これは、構造化された情報状態の表現、知識グラフに基づく文脈、欠落変数を推論するファインチューニング済みプランナを用いた教師ありファインチューニングによって実現される。
  • 複数のQAデータセットでの実験により、計算資源に制約のある学習下で、幻覚率を低くしつつマクロF1と棄権(abstention)のリコールが改善することが示され、エピステミックな意思決定は学習の過程で獲得されるべきだという示唆が得られる。

Abstract

大規模言語モデル(LLM)は質問応答および検索拡張生成(RAG)において強い性能を達成していますが、それらは暗黙的に、ユーザの問い合わせが完全に指定され、回答可能であることを前提としています。現実の状況では、問い合わせがしばしば不完全であったり、曖昧であったり、重要な変数が欠けていたりします。その結果、モデルは過度に自信のある、または幻覚(ハルシネーション)を含む回答を生成することがあります。 本研究では、不完全な情報のもとでの決定を意識したクエリ解決、すなわちモデルが「回答する(Answer)」「明確化を求める(Ask for clarification)」「棄権する(Abstain)」のいずれを選ぶべきかを判断しなければならない問題を扱います。標準のRAGシステムおよび強化されたRAGシステムは、このような認識論的な(epistemic)気づきを確実に示すわけではなく、情報が不十分な場合でも回答生成へとデフォルトで切り替わってしまうことを示します。 これに対処するため、我々はPassiveQAを提案します。これは、教師ありファインチューニングによって情報の十分性に整合するようにモデル挙動を合わせ込む、3つの行動から成る枠組みです。我々の手法は、構造化された情報状態表現、知識グラフに基づく文脈、そして欠けている変数と意思決定の推論を明示的にモデル化するファインチューニング済みプランナを統合します。 複数のQAデータセットにわたる実験の結果、計算資源に制約のある学習設定のもとで、ファインチューニング済みプランナがマクロF1および棄権(abstention)リコールを大幅に改善し、同時に幻覚率を低下させることが示されました。 これらの結果は、認識論的な意思決定は推論時に後から課すのではなく、学習の過程で獲得される必要があることを裏づける強力な実証的証拠を提供します。