答えは始まりにすぎない:オープンエンド文書に基づくQAにおける関連インサイト生成
arXiv cs.CL / 2026/4/22
📰 ニュースDeveloper Stack & InfrastructureModels & Research
要点
- この論文は、オープンエンドの文書に基づくQAでは、事実検索にとどまらず統合・判断・探索が必要なため難しいこと、またユーザーは単一回答を受け入れるよりも複数回の反復で答えを磨くことが多いと主張しています。
- このギャップを埋めるため、文書コレクションから追加のインサイトを生成し、初期の回答を改善・拡張・再考できるようにする新タスク「document-grounded related insight generation」を導入します。
- SCOpE-QAとして、20の研究コレクションにまたがるオープンエンド質問3,000件からなる新しいデータセットを公開し、本タスクのベンチマークを可能にします。
- InsightGenは2段階アプローチで、まず文書をクラスタリングしてテーマ表現を作り、次にテーマグラフ上の近傍選択により関連コンテキストを選んでLLMに多様で関連性の高いインサイト生成を行わせます。
- 生成モデル2種と評価設定2種で3,000問を評価した結果、InsightGenは有用で関連性が高く実行可能なインサイトを一貫して生成し、新タスクの強力なベースラインになることを示しています。



