AI Navigate

滑らかなキャリブレーションの重要性

arXiv cs.LG / 2026/3/18

📰 ニュースIdeas & Deep AnalysisModels & Research

要点

  • 本論文は、滑らかなキャリブレーションに関する先行研究を一般化・統一・拡張し、標的損失が予測器に知られていない場合に下流の意思決定者の後悔を低く抑える予測を可能にするオムニ予測(omniprediction)への一歩として位置づける。

要約: 最近の研究は、滑らかな較正 [Kakade and Foster, 2008] の中心性を、較正誤差の頑健な指標として強調しています。私たちは、滑らかな較正に関する従来の結果を一般化し、統合し、拡張し、それを頑健な較正指標としてだけでなく、オムニ予測(omniprediction)への一歩として位置づけます。これは、予測器が知らない適切な損失を最適化する下流の意思決定者が、後悔の少ない予測を得られるようにする。

私たちは、滑らかに較正された予測器に対する新しいオムニ予測保証を、すべての有界な適切な損失関数のクラスに対して提示します。私たちは予測器にノイズを加えて平滑化し、空間上の任意のベンチマーク予測器の平滑化版と競合します。ここでは予測器にノイズを加えた後、任意に後処理します。オムニ予測誤差は、予測器の滑らかな較正誤差と、ベンチマークからの地球搬送距離によって界定されます。この依存関係は一般には改善できないことを示す事例を示します。滑らかな較正からオムニ予測に関する従来の結果 [Foster and Vohra, 1998; Hartline, Wu, and Yang, 2025] をこの方法がどのように統合・拡張するかを示します。

予測とラベルの最も近い完全に較正された結合分布に対する地球搬送距離の観点から、滑らかな較正を端的に新しい特徴づけとして提示します。これにより、[Blasiok, Gopalan, Hu, and Nakkiran, 2023] の calibration への下限距離との関係のより簡潔な証明をもたらします。

これを用いて、予測のサポートサイズに依存しないサンプル複雑性の下で、較正への上限距離を二乗の因子内で推定することはできないことを示します。これは、較正への距離とは対照的で、対応する問題は情報理論的に不可能であることが知られていた:有限なサンプル数では十分ではない [Blasiok, Gopalan, Hu, and Nakkiran, 2023]。