ディテールの呪いを軽減する:特徴学習とサンプル複雑度のためのスケーリング議論
arXiv stat.ML / 2026/3/25
💬 オピニオンIdeas & Deep AnalysisModels & Research
要点
- 本論文は、ディープラーニングにおける特徴学習(Feature Learning)のメカニズム解釈や暗黙のバイアスを扱う理論が、高次元の非線形方程式に依存して解析計算が重くなりがちな「ディテールの呪い」を問題としている。
- そこで著者らは、厳密解ではなく「スケール解析」に基づいて、どのデータ量・ネットワーク幅で特定のパターンのFL(特徴学習)が現れるかを予測するヒューリスティック手法を提案し、既存結果のスケーリング指数を再現できると述べている。
- さらに、3層の非線形ネットワークやattention headといった複雑なトイアーキテクチャに対して新たな予測を提示し、第一原理系の理論の適用範囲を広げることを目指している。
- 「サンプル複雑度」や「FLの出現条件」を、計算コストの高い数値解法に頼らずに見通しやすくする点が主眼である。