自発的な自己結合(オートアプス)を用いて単一ニューロンからスパイキングニューラルネットワークを再構成する

arXiv cs.AI / 2026/3/27

💬 オピニオンSignals & Early TrendsIdeas & Deep AnalysisModels & Research

要点

  • 本論文は、時間遅延つきの自己結合(オートアプス)を持つ単一のリーキー積分発火(LIF)ニューロンのみで、多層SNNの振る舞いを再構成するスパイキングニューラルネットワークの枠組みであるTDA-SNNを提案する。
  • プロトタイプ学習型の訓練手法と、内部の時間状態の再編成を用いて、リザーバ、MLP型、畳み込み型を含む複数のスパイキングアーキテクチャを、1つの統一的アプローチの中で模倣する。
  • 線形系列、イベントベース、および画像ベンチマークに対する実験では、リザーバ設定およびMLP設定で競争力のある結果が示される一方、畳み込みの性能は明示的な空間—時間のトレードオフを反映する。
  • 標準的なSNNと比較して、TDA-SNNは、ニューロンあたりの情報容量を増やすことで、ニューロン数と状態メモリの大幅な削減を狙うが、極端な単一ニューロン構成では追加の時間遅延が必要になる可能性がある。
  • 全体として本研究は、時間的に多重化された単一ニューロンモデルを、ニューロモーフィック・コンピューティングのためのコンパクトな脳に着想を得た計算ユニットとして位置づける。

要旨: スパイキングニューラルネットワーク(SNNs)はニューロモーフィック計算に有望ですが、高性能モデルは依然として、実質的な通信および状態保存コストを伴う密な多層アーキテクチャに依存しています。オートシナプスに着想を得て、単一のリーキー積分発火(LIF)ニューロンと、プロトタイプ学習に基づく学習戦略によってSNNを再構成する枠組みである、時間遅延オートシナプスSNN(TDA-SNN)を提案します。内部の時間的状態を再編することで、TDA-SNNは単一の統一された枠組みの中で、リザーバ、マルチレイヤパーセプトロン(MLP)、および畳み込みのようなスパイキングアーキテクチャを実現できます。連続系列、イベントベース、および画像のベンチマークに関する実験では、リザーバおよびMLPの設定において競争力のある性能が示される一方、畳み込みの結果では明確な空間--時間のトレードオフが明らかになりました。標準的なSNNと比較して、TDA-SNNは極端な単一ニューロン設定における追加の時間遅延という代償を払うものの、ニューロン数と状態メモリを大幅に削減しつつ、ニューロンあたりの情報容量を増大させます。これらの知見は、時間的に多重化された単一ニューロンモデルが、脳に触発された計算のためのコンパクトな計算ユニットとして持つ可能性を示しています。