バナッハ空間値ランダム特徴モデルのユニバーサル近似性:ランダムニューラルネットワークを含む

arXiv stat.ML / 2026/4/28

💬 オピニオンIdeas & Deep AnalysisModels & Research

要点

  • 本論文は、ランダムに特徴マップを初期化した後に線形リードアウトのみを学習することで計算量を大幅に抑える、大規模カーネル近似のためのデータ駆動型教師あり機械学習として、バナッハ空間値のランダム特徴学習の拡張を提案する。
  • バナッハ空間値のランダム特徴モデルをバナッハ空間値の確率変数として捉え、対応するボホナー空間におけるユニバーサル近似定理を証明する。
  • 近似レートを導出し、ランダム特徴モデルを用いて所与のバナッハ空間の元を学習するための具体的アルゴリズムを提示する。
  • 本フレームワークは、ランダムなトリゴノメトリック/フーリエ回帰を含み、さらに「重みとバイアスをランダム初期化した単一隠れ層のフィードフォワードNN」であるランダムニューラルネットワークにも適用できる。
  • 非コンパクト領域(重み付き空間、Lp空間、(重み付き)ソボレフ空間など)で、決定論的ニューラルネットワークのユニバーサル近似性をランダムニューラルネットワークへ拡張できること、また許容誤差の逆数や入出力次元に対する訓練コストの増え方、決定論的手法に対する数値実験上の優位性も分析する。

要旨: 大規模カーネル近似のためのデータ駆動型教師あり機械学習手法である、ランダム特徴学習のバナッハ空間値拡張を導入します。特徴写像をランダムに初期化することで、訓練すべきなのは線形リードアウトのみとなり、計算複雑性を大幅に低減できます。ランダム特徴モデルをバナッハ空間値のランダム変数として捉え、対応するボホナー空間において普遍近似の結果を証明します。さらに、近似の収束率と、そのようなモデルによって与えられたバナッハ空間の元を学習するための明示的なアルゴリズムを導出します。本論文の枠組みには、ランダム三角/フーリエ回帰が含まれ、特に、重みとバイアスがランダムに初期化されるシングル・隠れ層のフィードフォワードニューラルネットワークであるランダムニューラルネットワークが含まれます。この場合も、訓練すべきなのは線形リードアウトのみです。後者については、非コンパクトな領域上の関数空間(例えば重み付き空間、L^p空間、そして(重み付き)ソボレフ空間)においてさえ、決定論的ニューラルネットワークの普遍近似性をランダムニューラルネットワークへ持ち上げることができます。ここで後者には、(弱)導関数の近似が含まれます。加えて、与えられた関数を近似するための訓練コストが、入力/出力の次元と、あらかじめ許容された近似誤差の逆数の両方に対して多項式的に増大するのはどのような場合かを解析します。さらに数値例を通じて、ランダム特徴モデルが決定論的な対応モデルに比べて経験的に優れていることを示します。