テスト時の識別蒸留による自己較正型言語モデル

arXiv cs.CL / 2026/4/14

📰 ニュース

要点

  • LLMは誤った回答をするときに過度に確信(過信)することが多く、既存の較正アプローチは、ラベル付き検証データを必要とするか、分布シフト下で破綻するか、あるいは推論コストが大きくなる。

テスト時の識別蒸留による自己較正型言語モデル | AI Navigate