暗黙のバイアスが学習曲線におけるニューラルなスケーリング則を生む:パーセプトロンから深層ネットワークまで
arXiv stat.ML / 2026/5/1
💬 オピニオンIdeas & Deep AnalysisModels & Research
要点
- 本論文は、学習の収束後だけでなくトレーニング中の学習曲線全体にわたる性能変化を記述する新しい「力学的(dynamical)」スケーリング則を報告しています。
- 2つのノルムに基づく複雑さの尺度が学習曲線の進み方を支配することを特定し、それらを組み合わせることで収束時の従来のテスト誤差スケーリングが再現されると示しています。
- 結果は、CNN、ResNet、Vision Transformerといった複数のモデル系と、MNIST、CIFAR-10、CIFAR-100の各データセットで一貫して確認されています。
- 単層パーセプトロン(ロジスティック損失)を用いた解析的な裏付けも提示され、勾配ベース学習が生む暗黙のバイアスによって新しいスケーリングが説明できるとしています。
- 全体として、学習ダイナミクス、スケーリングの規則性、そして暗黙のバイアスという観点から解釈可能性に関わる基盤を結びつけています。




