非線形汎関数のためのスパース対応ニューラルネットワーク:次元に対する指数的依存の緩和
arXiv cs.LG / 2026/4/9
💬 オピニオンSignals & Early TrendsIdeas & Deep AnalysisModels & Research
要点
- 本論文は、無限次元の関数空間における深層ニューラルネットワークによるオペレータ学習を対象とし、次元に伴うスケーリングの悪化を抑えることと、離散データからの安定性向上に焦点を当てる。
- 限られたサンプル数からスパースな特徴を学習するために畳み込みアーキテクチャを用い、非線形汎関数を近似するために深い全結合ネットワークを用いる枠組みを提案する。
- ユニバーサル離散化(universal discretization)手法を用いて、著者らは、スパース近似器が決定論的サンプリングとランダムサンプリングの両方の枠組みにおいて安定した回復を支えることを証明する。
- 理論結果により、周波数減衰が速いことや混合滑らかさ(mixed smoothness)によって特徴づけられる関数空間において、近似率が改善され、必要サンプル数が削減されることが示され、スパース性が次元の呪いをどのように緩和するかについての洞察が得られる。
- 本研究は、汎関数学習理論においてサンプル効率と解釈可能性を高めるための主要なメカニズムとして、スパース性を位置づける。



