一般化の解析における確率から幾何を切り離す

arXiv cs.LG / 2026/4/22

📰 ニュースIdeas & Deep AnalysisModels & Research

要点

  • 本論文は、一般的に用いられる(そして原理的に検証できない)「in-sample と out-of-sample が無限母集団からの i.i.d. 抽出」という仮定から離れて、機械学習の一般化を別の観点で捉え直します。
  • 最適化問題の解のデータ擾乱に対する感度解析を用いて一般化境界(generalization bounds)を導き、in-sample と out-of-sample の評価を結ぶ決定論的な(変分原理の形をした)関係として表します。
  • 主要な誤差項は、out-of-sample データが in-sample データにどれだけ近いかを定量化し、学習/評価(train/test)間の性能のつながりを与えます。
  • その誤差項が平均的に小さい、あるいは高確率で小さい状況は、統計的仮定を ex post(事後)に用いることで説明します。
  • 全体として、最適化の感度挙動に関する「幾何」と、データ類似性に関する「確率」を切り離し、一般化解析をより筋の良い形にすることを狙っています。