AI Navigate

ニューラルネットワークの一般化を記述する補間公式について

arXiv cs.LG / 2026/3/17

📰 ニュースIdeas & Deep AnalysisModels & Research

要点

  • 本研究は、連続時間拡散近似を介して確率的勾配カーネルを導入し、Domingos の補間公式を確率的な訓練へ拡張する。
  • Domingos の定理の確率的版を証明し、期待されるネットワーク出力が最適化手法固有の重み付けを持つカーネルマシン表現であることを示す。これは損失依存の寄与と、訓練経路に沿った勾配の整合性を反映している。
  • 一般化誤差を、確率的勾配カーネルによって誘起される積分演算子の零空間に結びつけ、拡散モデルと GAN(生成対向ネットワーク)を幾何学によって形作られた段階的補正として統一的に解釈する。
  • 最適化過程での暗黙的カーネルの進化を示す数値実験を提示し、特徴空間のメモリという視点を支持する。テスト時の予測は、保存された接線特徴のカーネル重み付けによる検索から生じる。

要約:2020年に Domingos は「勾配降下法で学習されたすべてのモデル」に有効な補間公式を導入した。彼は、そのようなモデルは近似的にカーネル機械として振る舞うと結論づけた。本研究では、Domingos の式を確率的な訓練へ拡張する。連続時間拡散近似を用いて決定論的版を拡張する確率的勾配カーネルを導入します。確率的 Domingos の定理を証明し、期待ネットワーク出力が最適化アルゴリズム固有の重み付けを持つカーネル機械表現を許すことを示します。訓練サンプルは、損失依存の重み付けと訓練軌道に沿った勾配の整合性を通じて寄与することを明らかにします。続いて、一般化誤差を、確率的勾配カーネルによって誘導される積分演算子の零空間と結びつけます。同じパス-カーネルの視点は、拡散モデルと GAN の統一的な解釈を提供します:拡散は段階的でノイズを局所化した補正を誘発するのに対し、GAN は識別器の幾何学によって形作られた分布指向の補正を誘発します。最適化中の暗黙のカーネルの進化を可視化し、一連の数値実験を通じて分布外挙動を定量化します。我々の結果は、学習の特徴空間メモリという見方を支持します:訓練はデータ依存の情報を進化する接線特徴幾何に蓄え、テスト時の予測はこれらに蓄積された特徴のカーネル重み付け検索と集約から生じ、一般化はテスト点と学習された特徴メモリとの整列によって支配されます。