AI Navigate

仮説クラスが説明を決定する:正確なモデルは特徴量の寄与についてなぜ意見が分かれるのか

arXiv cs.LG / 2026/3/18

📰 ニュースIdeas & Deep AnalysisModels & Research

要点

  • 本論文は、予測が同等なモデルが同等の説明を生み出すという前提に挑戦し、特徴量の寄与には著しい差が生じうることを示している。
  • 24のデータセットと複数のモデルクラスにまたがる大規模な経験的研究は、同じ予測挙動を示すモデルでも特徴量の寄与が大きく異なる可能性があることを発見した。
  • 寄与の不一致は構造的である。同じ仮説クラス内では高い一致を示す一方、クラス間では低くなる(例:木ベースモデルと線形モデル)、しばしば宝くじのような閾値付近で生じる。
  • 著者らは「説明のくじ引き(Explanation Lottery)」を導入し、データ生成過程の相互作用があっても存在し続ける一致ギャップを証明し、再訓練なしで安定性を診断するための説明信頼性スコア R(x) を提案している。
  • 結果は、モデル選択が説明には中立ではなく、選択された仮説クラスがどの特徴量が意思決定に寄与したと示されるかを決定し、監査や規制評価に影響を及ぼすことを示唆している。

概要: 予測同等のモデルが同等の説明を生み出すという仮定は、説明可能なAIにおける多くの実践(モデル選択、監査、規制評価を含む)の基盤となっている。
本研究では、この仮定が成り立たないことを示す。
24のデータセットと複数のモデルクラスにまたがる大規模な実証研究を通じて、同じ予測挙動を示すモデルでも、特徴量の寄与度が大幅に異なる説明を生み出すことを見出した。
この不一致は高度に構造化されている:同じ仮説クラス内のモデルは強い一致を示す一方、同一データ分割で訓練された異なるクラス間のペア(例:木ベース対線形)は、一致が著しく低下し、宝くじ閾値に近い、あるいはそれを下回る水準で一貫して現れる。
この現象の構造的推進力として仮説クラスを特定し、これを Explanation Lottery(説明のくじ引き)と呼ぶ。
データ生成過程の相互作用構造の下でも、結果として生じる合意ギャップが持続することを理論的に示す。
この構造的発見は、追加の訓練なしでアーキテクチャ間の説明が安定しているかを予測する、Explanation Reliability Score R(x) という事後診断を動機づける。
我々の結果は、モデル選択が説明に対して中立ではないことを示している。展開のために選択された仮説クラスは、どの特徴量が意思決定に対して責任を負うと説明されるかを決定する可能性がある。