ほとんどのReLUネットワークは同定可能なパラメータを持つ
arXiv cs.LG / 2026/5/6
💬 オピニオンIdeas & Deep AnalysisModels & Research
要点
- この論文は深いReLUネットワークの同定可能性を調べ、実現された関数が、スケーリングや置換といった標準的な対称性を除いてどの程度パラメータを一意に決められるかを論じます。
- 著者らは加重多面体複体に基づく新しい解析フレームワークを導入し、隠れた冗長性を標準的な対称性以上の観点で捉え、同定可能性をより精密に特徴づけます。
- 主結果として、入力層と隠れ層の幅が少なくとも2であるあらゆるアーキテクチャについて、同定可能なパラメータを含む開集合が存在すると述べられます。これにより、機能次元が「パラメータ数−隠れニューロン数」に等しいことが示されます。
- 著者らはさらに、最小の機能表現であっても非自明なパラメータ冗長性が残り得ること、また深さ方向の階層性として、ある開集合のパラメータに対して実現される関数はより浅いネットワークでは一般には(ジェネリックには)表現できないことを示します。
- 全体として、本研究はReLUモデルにおけるアーキテクチャ、パラメータの冗長性、そして深さにまたがる表現力の関係についての理解を深めます。



