SELFDOUBT:推論LLMのためのヘッジ・トゥ・ベリファイ比による不確実性定量化
arXiv cs.AI / 2026/4/10
💬 オピニオンIdeas & Deep AnalysisModels & Research
要点
- 本論文は、推論型LLM向けの単一パスの不確実性推定手法であるSELFDOUBTを提案し、プロプライエタリAPIによってログイットや中間確率が隠されている場合でも動作します。
- SELFDOUBTは、ヘッジ・トゥ・ベリファイ比(HVR)を用いて、モデルの推論トレースに含まれる行動的手がかりから不確実性スコアを導出し、ヘッジ/不確実性のマーカーと、明示的な自己検証を切り分けます。
- BBH、GPQA-Diamond、MMLU-Proの7つのモデルにわたって、ヘッジ・マーカーを含まないトレースは96%の確率で正解となり、追加の推論コストなしで高精度な「信頼性ゲート」を実現します。
- ヘッジ・マーカーが存在するケースでは、SELFDOUBTはサンプリングベースの意味エントロピーを上回り、必要な推論コストは約10分の1です。
- ゼロ・マーカ―ゲートと、完全なSELFDOUBTスコアを組み合わせた2段階のデプロイメント・カスケードにより、タスク固有ラベルなしで、カバレッジ71%のとき精度90%を達成し、プロダクション対応の不確実性基盤であることを示唆します。



