助言:回答依存の言語化信頼度推定

arXiv cs.CL / 2026/5/4

💬 オピニオンModels & Research

要点

  • 本論文は、自然言語で自信を表明するLLMがしばしば体系的に過信になる理由を分析します。
  • 「回答に依存しないこと」(モデル自身の回答に基づかない自信推定)が、誤った校正の主要な要因だと特定しています。
  • 著者らは、回答に根ざした自信推定を促す微調整手法としてADVICE(回答依存の言語化信頼度推定)を提案します。
  • 実験の結果、ADVICEは信頼度の校正を大きく改善し、タスク性能を損なうことなく未見の設定にも強く一般化することが示されます。
  • 改善は「回答への依存度の向上」によってもたらされるとされ、過信の起源と、より信頼できる自信の言語化につながる仕組みが明らかにされています。

Abstract

大規模言語モデル(LLM)の最近の進展により、自然言語によって自らの確信度を伝えることが可能になり、透明性と信頼性が向上しています。しかし、この表現力の高さはしばしば体系的な過信と同時に現れ、その根本原因はいまだ十分に理解されていません。本研究では、言語化された確信度推定のダイナミクスを分析し、この挙動の主要な駆動要因として、答え独立性――モデル自身の回答に基づいて確信度を条件付けできていないこと――を特定します。これに対処するため、ADVICE(Answer-Dependent Verbalized Confidence Estimation)という微調整フレームワークを提案します。ADVICEは、回答に根ざした確信度推定を促進します。大規模な実験の結果、ADVICEは確信度キャリブレーションを大幅に改善し、タスク性能を損なうことなく未見の設定への強力な汎化も示すことが明らかになりました。さらに、この改善が「回答依存性の強化」によってもたらされることを示し、過信の起源を明らかにするとともに、信頼できる確信度の言語化を可能にします。