地域ごとの説明:ローカルとグローバルの変数重要度をつなぐ

arXiv stat.ML / 2026/4/14

📰 ニュースSignals & Early TrendsIdeas & Deep AnalysisModels & Research

要点

  • 本論文では、2つの一般的なローカル説明手法であるLocal Shapley ValuesとLIMEを評価し、特定の予測に対して本当にローカルに重要な特徴を確実に特定できないことがあると主張する。
  • それは、原理に基づくローカル帰属手法は、モデル出力に影響しない特徴や、予測を駆動する特徴と統計的に独立な特徴に重要度を割り当てることを避けるべきだとしている。
  • 著者らは、厳密な計算や、特徴が独立であるといった理想化された状況であっても、Local SVとLIMEの両方がこの原則に違反しうることを示す。
  • この問題を解決するために、彼らはR-LOCOを提案する。R-LOCOは、入力空間を、特徴重要度の振る舞いが類似する領域に分割し、その領域内でグローバル帰属手法を用いることで、より忠実なローカル帰属を生成する。
  • このアプローチは、ローカル説明の不安定さを低減しつつ、グローバル帰属手法ではしばしば見落とされる、インスタンス固有の詳細を維持することを目的としている。

Abstract

私たちは、特徴量 x_i の値が特定の予測 f(x_1, ,x_p) に対して持つ寄与を定量化することを目的とした、広く用いられている2つのローカル帰属手法、Local Shapley Values と LIME を分析する。広く利用されているにもかかわらず、正確な計算と独立な特徴量という理想的な条件の下でも、ローカルに重要な特徴量を確実に検出する能力には根本的な限界があることを見出す。私たちは、健全なローカル帰属手法は、モデル出力に影響を与えない特徴量(たとえば線形モデルで係数がゼロの特徴量)に対して重要度を付与してはならず、また機能にとって関連する特徴量と統計的な依存関係を示さない特徴量にも重要度を付与すべきではない、と主張する。Local SV と LIME の双方がこの基本原則に違反することを示す。これに対処するため、R-LOCO(Regional Leave Out COvariates)を提案する。これは、ローカル説明とグローバル説明のギャップを埋め、より正確な帰属を提供する。R-LOCO は入力空間を、特徴量の重要度特性が類似した領域に分割する。その上で、各領域内でグローバル帰属手法を適用し、そのインスタンスが属する領域から特徴量の寄与を導出する。このアプローチは、ローカル説明の不安定性を回避しつつ、グローバル手法で失われがちなインスタンス固有の詳細を保持することで、より忠実なローカル帰属を実現する。