長文生成における大規模言語モデルのための質問型不確実性定量化(IUQ)
arXiv cs.CL / 2026/4/17
📰 ニュースModels & Research
要点
- この論文は、長文のLLM生成における主要な課題として、「意味的には一貫しているのに事実としては誤りを含み得る」点に焦点を当てています。
- Interrogative Uncertainty Quantification(IUQ)と呼ばれる新しい枠組みを提案し、長文出力の不確実性を「サンプル間の一貫性」と「サンプル内の忠実性」を用いて推定します。
- IUQは「質問してから回答する(interrogate-then-respond)」パラダイムにより、主張(クレーム)単位の不確実性とモデルの忠実性を評価します。
- 複数のモデル系統とモデルサイズにまたがる実験で、IUQが2つの広く用いられている長文生成データセット/ベンチマークに対して優れた性能を示しました。
- 再現性のため、著者は実装コードをGitHubで公開しています。


