深層学習のためのランダム行列理論:線形モデルの固有値の彼方へ
arXiv stat.ML / 2026/4/17
💬 オピニオンIdeas & Deep AnalysisModels & Research
要点
- 本論文は、データの次元・サンプルサイズ・モデルパラメータ数がいずれも同程度に大きい高次元かつ過パラメータ化されたML/DNNの環境では、従来の低次元の直観が成り立ちにくいと主張しています。
- 著者らは、線形モデルの固有値ベースの解析にとどまっていたランダム行列理論(RMT)を、比例的な高次元レジームにおける非線形モデル(深層ニューラルネットワーク)へ拡張します。
- 「High-dimensional Equivalent」という概念を導入し、Deterministic EquivalentとLinear Equivalentを統合して、高次元性・非線形性・一般的な固有スペクトル汎関数の解析という3つの技術的課題に体系的に対処します。
- この枠組みを用いて、線形モデル、非線形シャローネットワーク、深層ネットワークについて、訓練性能と汎化性能を精密に特徴づけ、スケーリング則やdouble descentなどの現象を説明します。
- 全体として、本研究は高次元レジームにおける深層学習の振る舞い(非線形な学習ダイナミクスを含む)を統一的に理解するための理論的視点を提供することを目指しています。



