要旨: 約10年間、複雑な機械学習(ML)モデルを説明する際には、非記号的手法が選択肢として主流であった。残念ながら、そのような手法には厳密性が欠けており、人間の意思決定者を誤らせる可能性がある。MLの高リスクな用途では、厳密性の欠如は特に問題となる。証明可能な厳密性の欠如の代表例として、説明可能人工知能(XAI)におけるShapley値の採用が挙げられ、ツールSHAPはその普遍的な例である。本論文では、非厳密な非記号的アプローチの代替として、XAIにおける厳密な記号的手法を用いるための継続的な取り組みを概観する。具体的には、相対的な特徴量の重要度を割り当てることを対象とする。
特徴量の寄与(Feature Attribution)による厳密な説明可能性に向けて
arXiv cs.AI / 2026/4/20
💬 オピニオンIdeas & Deep AnalysisModels & Research
要点
- 本論文は、機械学習モデルの説明に用いられてきた非シンボリック手法はしばしば厳密性を欠き、特に意思決定において人を誤らせうると主張しています。
- その厳密性の不足を示す具体例として、SHAPなどで広く使われている説明可能AI(XAI)におけるShapley値の利用が挙げられます。
- 論文は、非厳密な手法の代替として、より厳密なシンボリックな説明可能性(XAI)手法を用いる取り組みを概観します。
- 目的は、非シンボリックな帰属(attribution)だけに頼るのではなく、シンボリックXAI技術により相対的な特徴量重要度のより信頼できる割り当てを行うことです。



