FAME(Formal Abstract Minimal Explanations): ニューラルネットワークの形式的抽象最小説明
arXiv cs.AI / 2026/3/12
📰 ニュースIdeas & Deep AnalysisModels & Research
要点
- FAME(Formal Abstract Minimal Explanations)は、抽象解釈に基づくニューラルネットワークの新しいアブダクティブな説明のクラスとして提案される。
- 探索順序を必要としない専用の摂動領域を用いることで大規模なネットワークにスケールし、説明サイズを削減します。これらの領域は徐々に縮小され、無関係な特徴を除外するために LiRPA ベースの境界を活用します。
- この手法は形式的な抽象最小説明へ収束し、抽象的最小説明と真の最小説明との間の最悪ケース距離を測定する手続きを導入します。この手続きは敵対的攻撃と任意の VERIX+ 改善ステップを組み合わせたものです。
- 実証的なベンチマークは、VERIX+ と比較して中規模から大規模なネットワークにおいて、説明サイズと実行時間の両方で一貫した改善を示します。
- 本研究は、ニューラルネットワークの最小説明を生成するための、スケーラブルで形式的なフレームワークを提供することにより、説明可能なAIに貢献します。
要旨: FAME(Formal Abstract Minimal Explanations)を提案します。抽象解釈に基づく新しいアブダクティブな説明のクラスです。FAME は、大規模なニューラルネットワークにスケールしつつ説明サイズを削減する初の手法です。私たちの主な貢献は、探索順序を必要としない専用の摂動領域の設計です。FAME はこれらの領域を段階的に縮小し、LiRPAベースの境界を活用して無関係な特徴を除外し、最終的には形式的な抽象的最小説明へ収束します。説明の品質を評価するため、抽象的最小説明と真の最小説明との間の最悪ケース距離を測定する手順を導入します。この手順は敵対的攻撃と任意の VERIX+ 改善ステップを組み合わせたものです。FAME を VERIX+ と比較し、中規模から大規模なニューラルネットワークにおいて説明サイズと実行時間の両方において一貫した改善を示します。

