LipKernel:散逸層によるリプシッツ有界畳み込みニューラルネットワーク

arXiv stat.ML / 2026/4/10

💬 オピニオンIdeas & Deep AnalysisModels & Research

要点

  • 本論文は、各層が散逸性を保証する線形行列不等式(LMI)を満たすことにより、所望のリプシッツ上界を強制する、新しいCNNの層ごとのパラメータ化手法「LipKernel」を提案する。
  • 2次元のRoesser型状態空間モデルを用いて散逸的な畳み込みカーネルをパラメータ化することで、学習された畳み込み層は標準形のまま維持され、周波数領域でのアプローチと比べて評価に伴うオーバーヘッドを回避できる。
  • 著者らは、実行時間が、畳み込みをフーリエ領域でパラメータ化する既存の最先端のリプシッツ有界ネットワークに比べて桁違いに高速であると報告している。
  • LipKernelは、スペクトル上界や直交層の手法よりも表現力が高いとされ、同時に1次元/2次元畳み込み、プーリング、ストライド/ダイレーション、ゼロパディングなど、多くの一般的なCNNコンポーネントをサポートする。
  • 本手法は、ロボティクス、自動運転車、オートメーションにおける、頑健なリアルタイムの知覚・制御タスクに特に有用であるとして位置づけられており、CNNに限らず、任意の漸進的に散逸的な層へと拡張できると主張されている。

Abstract

本稿では、所与のLipschitz(リプシッツ)上界を課すことで組み込みの頑健性保証を含む、新しい畳み込みニューラルネットワーク(CNN)向けの層ごとのパラメータ化を提案する。提案するパラメータ化の各層は線形行列不等式(LMI)を満たすように設計され、その結果として、特定の供給率に関する散逸性(dissipativity)が導かれる。これらの層ごとのLMIを組み合わせることで、ニューラルネットワークの入力-出力写像に対するLipschitz有界性が保証され、スペクトル上界や直交層による方法よりも表現力の高いパラメータ化が得られる。新手法LipKernelは、2次元Roesser型の状態空間モデルを用いて散逸的畳み込みカーネルを直接パラメータ化する。これにより、畳み込み層は学習後に標準形で与えられ、計算オーバーヘッドなしに評価できる。数値実験では、本手法の実行時間が、畳み込みをフーリエ領域でパラメータ化する最先端のLipschitz有界ネットワークよりも桁違いに高速であることを示す。したがって、本アプローチは、ロボティクス、自動運転車、または自動化システムにおける学習ベースのリアルタイム知覚や制御の頑健性を改善するうえで、特に魅力的である。本稿ではCNNに焦点を当てるが、先行研究と対照的に、本手法は、CNNで一般に用いられる多様な層、すなわち1次元および2次元の畳み込み層、最大プーリング層、平均プーリング層、さらにストライド付きおよび拡張(dilated)畳み込み、ゼロパディングにまで対応する。しかしながら、本手法は自然にCNNの枠を超えて拡張でき、増分散逸的(incrementally dissipative)な任意の層を組み込むことが可能である。