KANには曲率が必要:構成的スムーズさに対するペナルティ

arXiv stat.ML / 2026/5/5

📰 ニュースIdeas & Deep AnalysisModels & Research

要点

  • この論文は、学習された活性が解釈性を損なうほど「異常に高い曲率の振動」を示しがちなことを、Kolmogorov-Arnold Networks(KANs)の特徴として指摘しています。
  • 標準的な正則化ペナルティでは、こうした曲率の振動を抑えるのに不十分であることを示します。
  • ベースに依存しない曲率ペナルティを導入し、活性を大幅に滑らかにしつつ、モデルの精度を維持できることを示しています。
  • 関数の合成(composition)が曲率に与える影響を考察し、モデル全体の曲率が曲率ペナルティによって上界づけられることを証明し、その結果をより豊かなペナルティ設計の動機付けに用いています。
  • 精度と解釈性のトレードオフを緩和することを目的としており、KANsを予測だけでなく科学的な洞察のためにも実用化しやすくすると期待されます。

Abstract

Kolmogorov-Arnoldネットワーク(KANs)は、学習可能な単変量活性化関数の合成によって、高い精度と解釈可能性を両立する強力な手段を提供します。ところが、よく適合したKANの活性化は病理的に高い曲率の振動を示す傾向があり、そのため解釈が困難になり、標準的な正則化ペナルティではこれを防げません。ここでは、基底非依存の曲率ペナルティを導出し、ペナルティ付きモデルが精度を維持しながら、活性化を大幅に滑らかにできることを示します。関数の合成が曲率にどのように影響するかを考慮して、曲率ペナルティに対する全モデルの曲率の上界を証明し、それを根拠により豊かな形のペナルティを動機づけます。科学機械学習は、精度と解釈可能性のトレードオフによってますますボトルネック化しています。精度を犠牲にせずに解釈可能性を改善する、今回のような結果は、予測と洞察の両方に対する実用的ツールとしてKANsをさらに強固にするでしょう。