Nesterovの加速勾配法により無限に深いベイズニューラルネットワークを改善する

arXiv cs.LG / 2026/3/27

💬 オピニオンIdeas & Deep AnalysisModels & Research

要点

  • 本論文はSDEベースのベイズニューラルネットワークを対象とし、その数値SDEソルバの利用が高い関数評価コスト(NFE)を招き、さらに収束の不安定性を引き起こし得ると主張する。
  • NFEに依存する残差スキップ接続に加えて、Nesterov加速勾配(NAG)を組み込んだ改良版のSDE-BNNアーキテクチャを提案する。
  • 本手法は、収束を加速しつつ、学習と推論の両方においてNFEを大幅に削減することを目的としている。
  • 画像分類や系列モデリングなどの複数のタスクに対する実験では、従来のSDE-BNNに比べて一貫した性能向上が報告されており、NFEの低下と予測精度の向上の両方が示される。
  • 総じて本研究は、計算効率と安定性に焦点を当てた、ベイズ連続深さニューラルネットワークモデルに対する実用的な最適化/アーキテクチャ改善を提示している。

要旨: 代表的な連続深度ニューラルネットワーク手法として、確率微分方程式(SDE)に基づくベイズニューラルネットワーク(BNN)は、その堅固な理論的基盤と実世界の応用に対する強い可能性により、広く注目を集めてきました。 しかし、数値的なSDEソルバへの依存は必然的に大量の関数評価(NFE)を引き起こし、その結果として計算コストが高くなり、さらにまれに収束の不安定性が生じます。これらの課題に対処するために、Nesterov加速勾配(NAG)を強化したSDE-BNNモデルを提案します。NFEに依存する残差スキップ接続とともに、SDE-BNNの枠組みにNAGを統合することで、提案手法は収束を加速し、学習およびテストの両方においてNFEを大幅に削減します。 大規模な実験結果は、当モデルが画像分類やシーケンスモデリングを含むさまざまなタスクにおいて、従来のSDE-BNNを一貫して上回り、より低いNFEと改善された予測精度を達成することを示しています。