因果モデルとしてのバイナリ・スパイキングニューラルネットワーク

arXiv cs.AI / 2026/5/1

💬 オピニオンIdeas & Deep AnalysisModels & Research

要点

  • 本論文は、バイナリ・スパイキングニューラルネットワーク(BSNN)の挙動を説明するための因果分析の枠組みを提示し、発火(スパイク)ダイナミクスを2値の因果モデルとして形式化します。
  • 因果的に表現できることで、SAT/SMTなどの論理ベースの手法を用いて、ネットワーク出力を説明(特にアブダクティブ説明)できることを示します。
  • MNISTでBSNNを学習し、SATベース/SMTベースの手法で画素レベルの特徴に基づく分類のアブダクティブ説明を求めます。
  • 生成した説明をSHAPと比較し、SHAPとは異なり、本手法は完全に無関係な特徴を説明に含まないことを保証できると主張しています。
  • 総じて、スパイキングニューラルネットワークを因果モデリングとソルバ(形式検証的手法)に結びつけ、解釈可能性の保証を高める点に意義があります。

Abstract

本稿では、Binary Spiking Neural Networks(BSNN)の振る舞いを説明するために、因果解析を提供します。私たちはBSNNを形式的に定義し、その発火(スパイク)活動を二値の因果モデルとして表現します。この因果表現のおかげで、論理ベースの手法を活用してネットワークの出力を説明できるようになります。とりわけ、この二値の因果モデルから演繹的(abductive)説明を計算するために、SATだけでなくSMTソルバも首尾よく利用できることを示します。提案手法を説明するために、標準的なMNISTデータセットでBSNNを学習し、ピクセルレベルの特徴に基づいてネットワークの分類のための演繹的説明を見つける際に、SATベースおよびSMTベースの手法を適用しました。また、見つかった説明を、説明可能AIの分野で広く使われている人気手法であるSHAPと比較しました。SHAPとは異なり、私たちのアプローチでは、見つかった説明にまったく無関係な特徴が含まれないことが保証されることを示します。