Abstract
本論文では、
\mathbb S^{d} ではなく一般の領域上で定義された広いクラスのカーネル関数について、固有値減衰率(EDR)を決定するための戦略を提示する。このクラスのカーネル関数には、深さの異なるニューラルネットワークおよびさまざまな活性化関数に対応するニューラル・タンジェント・カーネル(NTK)が含まれるが、それに限定されない。広いニューラルネットワークの学習ダイナミクスが一般の領域におけるニューラル・タンジェント・カーネル回帰を一様に近似することを証明した後、真の関数 f\in [\mathcal H_{\mathrm{NTK}}]^{s}(NTK の RKHS
\mathcal H_{\mathrm{NTK}} に関連する補間空間)を仮定すれば、広いニューラルネットワークがミニマックス最適であることをさらに示す。また、過学習したニューラルネットワークはうまく汎化できないことも示した。カーネルのEDRを決定するための本アプローチは、独立した関心対象にもなり得ると考えている。
