オンライン・マルチキャリブレーションに対する最適な下界

arXiv stat.ML / 2026/4/27

💬 オピニオンIdeas & Deep AnalysisModels & Research

要点

  • この論文は、オンライン・マルチキャリブレーションのタイトな下界を情報理論的に導出し、マージナル・キャリブレーションとの明確な分離(区別)を示します。
  • 学習者の予測と文脈の両方に基づいてグループ関数が定まる最も一般的な設定で、互いに素な2値グループを3つだけ用いて、期待されるマルチキャリブレーション誤差に対するΩ(T^(2/3))の下界を証明しています。
  • 確立されたΩ(T^(2/3))の下界は、既知のマルチキャリブレーションの上界と対数因子を除いて一致する一方で、マージナル・キャリブレーションの既存上界O(T^(2/3−ε))を上回り、両者が定量的に異なることを示します。
  • さらに、より難しい「グループ関数が文脈には依存するが学習者の予測には依存しない」設定でも、直交基底からO(log^3 T)サイズのグループ族を構成することで、(tilde)Ω(T^(2/3))の下界を証明し、こちらも上界と対数因子を除いて整合します。

概要: 我々は、オンラインのマルチキャリブレーションに対するタイトな下界を証明し、周辺(マージナル)キャリブレーションからの情報理論的な分離を確立する。
群関数が、文脈と学習者の予測の両方に依存しうる一般設定において、互いに素な3つの二値グループのみを用いて、期待されるマルチキャリブレーション誤差に対して langle ext{(} ext{)} angle ext{(} ext{)} \Omega(T^{2/3}) の下界を証明する。これは Noarov ら(2025)による上界と対数因子の範囲で一致し、周辺キャリブレーションに対する O(T^{2/3-
epsilon})
上界(Dagan ら、2025)を上回る。したがって、2つの問題を分離できる。
次に、群関数が文脈には依存し得るが学習者の予測には依存しない、より困難な場合の下界に取り組む。この場合、直交正規基底から構成された O(log^3 T) 規模の群族を用いて、オンラインのマルチキャリブレーションに対して ilde{ ext{(} ext{)} angle ext{(} ext{)} \widetilde{\Omega}(T^{2/3}) の下界を確立する。これもまた、上界と対数因子の範囲で一致する。