LLMは不確実性を明示的に表明すべき
arXiv cs.LG / 2026/4/8
💬 オピニオンSignals & Early TrendsIdeas & Deep AnalysisModels & Research
要点
- 本論文は、大規模言語モデルにおける不確実性は、生成の後に隠れた量として推定するだけでなく、制御のためのインターフェースとして明示的に表現されるべきだと主張する。
- 2つのアプローチを比較する:最終回答に対するグローバルな較正済み信頼度スコアと、高リスク状態に入ったときにモデルが推論過程の中で発する局所的な in-reasoning <uncertain> マーカーである。
- 言語化された信頼度は較正を改善し、過信による誤りを減らし、検索をより選択的に用いる強力な Adaptive RAG コントローラを可能にする。
- 推論時間における不確実性のシグナル化は、生成中のサイレントな失敗を可視化し、誤答に対するカバー率を高め、効果的な高リコールの検索トリガとして機能し得る。
- 著者らは、これらの仕組みが内部的には異なり、言語化された信頼度は主に不確実性のデコーディングを洗練させる一方、推論時間のシグナル化はより広範な後段(late-layer)の再編成を引き起こすことを見出している。



