助言:回答依存の言語化信頼度推定
arXiv cs.CL / 2026/5/4
💬 オピニオンModels & Research
要点
- 本論文は、自然言語で自信を表明するLLMがしばしば体系的に過信になる理由を分析します。
- 「回答に依存しないこと」(モデル自身の回答に基づかない自信推定)が、誤った校正の主要な要因だと特定しています。
- 著者らは、回答に根ざした自信推定を促す微調整手法としてADVICE(回答依存の言語化信頼度推定)を提案します。
- 実験の結果、ADVICEは信頼度の校正を大きく改善し、タスク性能を損なうことなく未見の設定にも強く一般化することが示されます。
- 改善は「回答への依存度の向上」によってもたらされるとされ、過信の起源と、より信頼できる自信の言語化につながる仕組みが明らかにされています。



