Korobov関数に対する2次元Deep ReLU CNN近似:構成的アプローチ

arXiv stat.ML / 2026/4/20

💬 オピニオンIdeas & Deep AnalysisModels & Research

要点

  • この論文は、ベンチマーク問題としてKorobov関数を用い、2次元の深いCNNが関数をどれほど良く近似できるかを分析します。
  • 著者らは、ゼロパディング付きの多チャネル畳み込み層、ReLU活性化、続いて全結合層から成る特定の2次元CNN構成を対象にします。
  • Korobov関数を近似するための2次元CNNを構築する「完全に構成的(fully constructive)」な手法を提案し、作成したネットワークの計算複雑性を厳密に解析します。
  • その結果、連続重み選択モデルの下でCNNがほぼ最適な近似率を達成し、多次元性による呪い(curse of dimensionality)を大きく緩和できることが示されます。
  • 総じて、本研究は関数近似における2次元CNNの理論的基盤を与え、ベンチマーク以外への応用可能性も示唆します。

要旨: 本論文では、2次元(2D)の深層畳み込みニューラルネットワーク(CNN)の近似能力を、Korobov関数をベンチマークとして調べる。ゼロパディングとReLU活性化を備えた多チャネル畳み込み層の後に全結合層を続ける、2D CNNに焦点を当てる。Korobov関数を近似するための2D CNNを構築するための完全に構成的なアプローチを提案し、構築したネットワークの複雑性について厳密な解析を与える。本研究の結果は、連続的な重み選択モデルのもとで、2D CNNがほぼ最適な近似率を達成することを示しており、多次元性の呪いを大幅に緩和する。 本研究は、2D CNNのための堅固な理論的基盤を提供するとともに、関数近似におけるより広範な応用の可能性を示すものである。