確率的スコアの分解:信頼性、情報損失、そして不確実性

arXiv stat.ML / 2026/3/24

💬 オピニオンIdeas & Deep AnalysisModels & Research

要点

  • 本論文では、校正(calibration)を、予測器がどれだけの情報を保持するかに依存する条件付きの性質として研究し、任意の適切(proper)なスコアリング損失に結び付く分解恒等式を用いる。
  • 与えられた情報量のもとで、期待される適切な損失は、信頼性(proper-regret)項と、残余不確実性を表す条件付きエントロピー項に分解されることを示す。
  • 入れ子になった情報量(ネストした情報レベル)に対しては、より豊かな表現へ移行する際にどれだけの情報(したがって期待損失の低減)が得られるかを定量化する、連鎖的な分解(チェーン分解)を提示する。
  • 分類(classification)において、本枠組みは三項からなる内訳—ミスキャリブレーション、特徴 X からスコア S への情報損失を捉えるグルーピング項、そして特徴レベルでの消しようのない(不可避の)不確実性—を導く。
  • 著者らは、これらの恒等式を用いて、事後的な再校正(post-hoc recalibration)、校正済みモデルの集約(aggregation of calibrated models)、段階的/ブースティング手法(stagewise/boosting approaches)を分析し、Brier スコアと対数損失(log loss)について明示的な結果を示す。

Abstract

キャリブレーション(較正)は、予測器が保持する情報に依存する条件付きの性質である。我々は、この依存関係を明示する任意の適切損失(proper loss)に対する分解恒等式を開発する。任意の情報レベル \mathcal A において、 \mathcal A-可測な予測器の期待損失は、適切レグレット(信頼性)項と、条件付きエントロピー(残留不確実性)項に分解できる。情報レベルがネストしていて \mathcal A\subseteq\mathcal B の場合には、連鎖分解によって \mathcal A から \mathcal B への情報獲得量を定量化する。特徴 \boldsymbol{X} とスコア S=s(\boldsymbol{X}) を用いた分類に適用すると、三項の恒等式が得られる。すなわち、誤キャリブレーション、 \boldsymbol{X} から S への情報損失を測る { \em grouping(グルーピング)} 項、そして特徴レベルでの消去不能な不確実性である。我々はこの枠組みを活用して、事後的な較正(post-hoc recalibration)、較正済みモデルの集約(aggregation)、段階的/ブースティング構成(stagewise/boosting)を解析する。さらに、ブライヤー(Brier)損失と対数損失(log-loss)について、明示的な形を提示する。