要旨: Kolmogorov-Arnold Networks(KAN)は、説明可能性と表現力の向上により、多層パーセプトロン(MLP)に代わる新しいニューラルネットワーク・アーキテクチャとして注目されている。しかし、KANはBスプライン関数計算の再帰的な性質により、MLPよりも大幅に遅い。そのため、適用が制限されている。本研究は、線形計算量を持つ新しい base-spline Linear-Time B-splines Kolmogorov-Arnold Network(LTBs-KAN)を提案することで、これらの課題に対処する。Boor-Mansfield-Cox のスプラインアルゴリズムや、その他の計算負荷の高い数学的関数に依存する先行手法とは異なり、本アプローチは計算上の負担を大幅に軽減する。さらに、順伝播において積の和行列因数分解(product-of-sums matrix factorization)を用いることで、性能を損なうことなくモデルのパラメータも削減する。MNIST、Fashion-MNIST、CIFAR-10での実験により、LTBs-KANは、他のKAN実装と比較して、構成要素として用いた場合に良好な計算時間の複雑性とパラメータ削減を達成することが示される。
LTBs-KAN:線形時間Bスプラインのコルモゴロフ=アーノルド・ネットワーク
arXiv cs.LG / 2026/4/27
📰 ニュースModels & Research
要点
- 本論文では、KANの実用性を阻む主なボトルネックである「MLPに比べて遅い計算」を改善するための新しいKAN派生手法として、LTBs-KANを提案します。
- LTBs-KANは線形時間のBスプライン計算を用いることで計算量を削減し、従来研究で使われていたより計算負荷の高いスプライン評価手法を回避します。
- さらに、順伝播(forward pass)中に積の和(product-of-sums)による行列因数分解を行うことでパラメータ数を減らしつつ、性能低下を避けることを目指します。
- MNIST、Fashion-MNIST、CIFAR-10での実験では、LTBs-KANが他のKAN実装と比べて、計算時間とパラメータ削減の面で良好な結果を建築ブロックとして示したと報告されています。




