ほとんどのReLUネットワークは同定可能なパラメータを持つ

arXiv cs.LG / 2026/5/6

💬 オピニオンIdeas & Deep AnalysisModels & Research

要点

  • この論文は深いReLUネットワークの同定可能性を調べ、実現された関数が、スケーリングや置換といった標準的な対称性を除いてどの程度パラメータを一意に決められるかを論じます。
  • 著者らは加重多面体複体に基づく新しい解析フレームワークを導入し、隠れた冗長性を標準的な対称性以上の観点で捉え、同定可能性をより精密に特徴づけます。
  • 主結果として、入力層と隠れ層の幅が少なくとも2であるあらゆるアーキテクチャについて、同定可能なパラメータを含む開集合が存在すると述べられます。これにより、機能次元が「パラメータ数−隠れニューロン数」に等しいことが示されます。
  • 著者らはさらに、最小の機能表現であっても非自明なパラメータ冗長性が残り得ること、また深さ方向の階層性として、ある開集合のパラメータに対して実現される関数はより浅いネットワークでは一般には(ジェネリックには)表現できないことを示します。
  • 全体として、本研究はReLUモデルにおけるアーキテクチャ、パラメータの冗長性、そして深さにまたがる表現力の関係についての理解を深めます。

Abstract

本研究では、深いReLUネットワークの実現写像(realization map)を調べ、どのようなときにある関数が、そのパラメータをスケーリングと置換までで一意に決定するのかに焦点を当てます。これらの標準的な対称性を超える隠れた冗長性を解析するために、加重多面体複体(weighted polyhedral complexes)に基づく枠組みを導入します。主要な結果として、入力層と隠れ層の幅がそれぞれ少なくとも2であるあらゆるアーキテクチャについて、識別可能なパラメータからなる開集合が存在することを示します。これにより、そのようなアーキテクチャにおけるすべての機能的次元(functional dimension)は、隠れニューロンの数をパラメータ数から差し引いたものとちょうど一致することが導かれます。さらに、最小の機能的表現であっても自明でないパラメータの冗長性を持ちうることを示します。最後に、一般的(generic)な深さ階層(depth hierarchy)を確立し、開集合に属するパラメータに対して、実現される関数はより浅いネットワークによって一般的には表現できないことを示します。

ほとんどのReLUネットワークは同定可能なパラメータを持つ | AI Navigate