極小極大最適化による、適応形状付き条件付き校正のための予測包括(Conformal Prediction)

arXiv stat.ML / 2026/3/25

💬 オピニオンIdeas & Deep AnalysisModels & Research

要点

  • 本論文は、有限サンプル下での予測包括(conformal prediction)において条件付きカバレッジ妥当性を達成することが難しい問題に対し、条件付きカバレッジを周辺モーメント制約として言い換えることで対処する。
  • 固定のスコア関数に基づく劣位集合(sublevel set)を用いるのではなく、校正中に極小極大最適化の目的関数によって、集合値の予測写像の柔軟な族を学習する「Minimax Optimization Predictive Inference」(MOPI)を提案する。
  • MOPIは、平均二乗カバレッジ誤差を最小化することとの間に原理的な関係を保ちながら、予測集合の「形状適応性(shape adaptivity)」を改善することを設計目標としている。
  • 著者らは、通常の条件のもとでカバレッジ誤差に対する最適次数の収束率を示す、非漸近的な理論結果(オラクル不等式)を提示する。
  • また、MOPIが、校正時にのみ利用可能なセンシティブ属性に関して条件付きに妥当な推論を支えられることを示し、複雑な条件付き分布においてより効率的な予測集合による経験的な改善を報告している。

Abstract

共形予測において有効な条件付きカバレッジを達成することは、有限標本において点ごとの制約を満たす理論的な難しさによって困難です。周辺モーメント制約による条件付きカバレッジの特徴付けを土台として、Minimax Optimization Predictive Inference(MOPI)を導入します。これは、校正(calibration)フェーズで固定されたサブレベル集合を単に校正するのではなく、集合値写像の柔軟なクラスに対して最適化することで、先行研究を一般化する枠組みです。このミニマックス定式化は、あらかじめ定義されたスコア関数の構造的制約を効果的に回避し、平均二乗カバレッジ誤差の最小化との原理的なつながりを維持しつつ、優れた形状適応性を実現します。理論的に、非漸近的なオラクル不等式を提示し、規則的な条件のもとでカバレッジ誤差の収束率が最適なオーダーに到達することを示します。さらにMOPIは、校正時には利用可能だがテスト時には観測されないセンシティブ属性に条件付けた有効な推論も可能にします。複雑で非標準な条件付き分布に関する実験結果では、MOPIが既存のベースラインよりも効率的な予測集合を生成することが示されています。