LipKernel:散逸層によるリプシッツ有界畳み込みニューラルネットワーク
arXiv stat.ML / 2026/4/10
💬 オピニオンIdeas & Deep AnalysisModels & Research
要点
- 本論文は、各層が散逸性を保証する線形行列不等式(LMI)を満たすことにより、所望のリプシッツ上界を強制する、新しいCNNの層ごとのパラメータ化手法「LipKernel」を提案する。
- 2次元のRoesser型状態空間モデルを用いて散逸的な畳み込みカーネルをパラメータ化することで、学習された畳み込み層は標準形のまま維持され、周波数領域でのアプローチと比べて評価に伴うオーバーヘッドを回避できる。
- 著者らは、実行時間が、畳み込みをフーリエ領域でパラメータ化する既存の最先端のリプシッツ有界ネットワークに比べて桁違いに高速であると報告している。
- LipKernelは、スペクトル上界や直交層の手法よりも表現力が高いとされ、同時に1次元/2次元畳み込み、プーリング、ストライド/ダイレーション、ゼロパディングなど、多くの一般的なCNNコンポーネントをサポートする。
- 本手法は、ロボティクス、自動運転車、オートメーションにおける、頑健なリアルタイムの知覚・制御タスクに特に有用であるとして位置づけられており、CNNに限らず、任意の漸進的に散逸的な層へと拡張できると主張されている。



