密なニューラルネットワークは万能近似器ではない
arXiv stat.ML / 2026/4/17
💬 オピニオンIdeas & Deep AnalysisModels & Research
要点
- 本論文は、従来の「万能近似」の直感に対し、重みやネットワーク次元に現実的な制約がある場合、密(全結合)ニューラルネットワークが万能近似器にはならないことを示します。
- 証明はモデル圧縮の発想に基づき、弱い正則化補題(weak regularity lemma)と、フィードフォワード・ネットワークをメッセージパッシング型のグラフニューラルネットワークとして解釈する枠組みを組み合わせています。
- 入出力次元と重み値に制約を課したReLUネットワークの設定で、こうした密なアーキテクチャでは近似できないLipschitz連続関数の存在を示します。
- この結果は、密な層の内在的な限界を示し、「真の万能性」を得るには疎な結合(sparse connectivity)が必要な要素になり得ることを動機づけます。
- 全体として、本研究は近似能力がネットワークの大きさだけでなく、アーキテクチャ上の制約にも強く依存することを再定義します。



