要旨:最近のディープニューラルネットワーク(DNN)アプリケーションは、その挙動を説明できる手法を求めています。Feature Guided Analysis(FGA)などの既存の解決策は、ニューロンの活性化に関連する説明を提供することによって、内部動作に関する規則を抽出します。文献の結果は、これらの規則がかなりの精度(すなわち、特徴の特定のクラスを正しく予測する)を有することを示していますが、リコール(すなわちこれらの規則が適用される状況の数)はより限定的です。この問題を緩和するため、本論文は「アンサンブルベースの特徴ガイド分析(EFGA)」を提示します。EFGAはFGAにより抽出された規則をアンサンブルに結合します。アンサンブルは、集約基準(規則をアンサンブルに結合する方法を規定する方針)に応じて適用性を高めるために異なる規則を集約します。本ソリューションは拡張可能で、ユーザーによって異なる集約基準を開発することができますが、本研究では3つの異なる集約基準を検討しました。基準の選択がEFGAの有効性にどのように影響するかを、2つのベンチマーク(すなわちMNISTおよびLSCデータセット)で評価し、異なる集約基準が適合率と再現率の間に代替的なトレードオフを提供することを発見しました。次にEFGAとFGAを比較します。本実験では、適合率と再現率の間で合理的なトレードオフを提供する集約基準を選択しました。私たちの結果は、EFGAがFGAより訓練データでの再現率(MNISTで+28.51%、LSCで+33.15%)およびテストデータでの再現率(MNISTで+25.76%、LSCで+30.81%)を高く示し、テストの適合率の低下はごくわずか(MNISTで-0.89%、LSCで-0.69%)であることを示しています。
アンサンブルベースの特徴指向分析
arXiv cs.LG / 2026/3/23
📰 ニュースIdeas & Deep AnalysisModels & Research
要点
- EFGAは、Feature Guided Analysisを拡張し、複数のルールをアンサンブルすることでカバレッジ(再現率)を向上させつつ、DNNの挙動の説明における精度を維持することを目指します。
- このアプローチは、FGAルールからアンサンブルを形成するための3つの異なる集約基準を備えた集約ポリシーを導入します。
- MNISTとLSCの実験では、EFGAは訓練データに対する再現率を高め(MNISTで+28.51%、LSCで+33.15%)、同時にテストデータに対する再現率も高めます(MNISTで+25.76%、LSCで+30.81%)が、精度はわずかに低下します(MNISTで-0.89%、LSCで-0.69%)。
- このフレームワークは拡張性があり、新しい集約基準を追加して選択することで、さまざまなアプリケーションにおいて精度と再現率のバランスを取れるよう設計されています。