AI Navigate

深層強化学習を解釈可能なファジィ規則に蒸留する: 説明可能AIフレームワーク

arXiv cs.AI / 2026/3/17

📰 ニュースIdeas & Deep AnalysisModels & Research

要点

  • 深層強化学習ポリシーを人間が読める IF-THEN ルールへ蒸留するための階層型 Takagi-Sugeno-Kang (TSK) ファジィ分類器システムを提案し、連続制御タスクにおける不透明性に対処する。
  • 本フレームワークは状態の分割に K-Means クラスタリングを、局所的な行動推定にはリッジ回帰を用い、説明品質と制御の多様性を定量化する指標(Fuzzy Rule Activation Density、Fuzzy Set Coverage、Action Space Granularity)を導入する。
  • Lunar Lander Continuous 環境での実証評価は、三角形メンバーシップ関数のバリアントがポリシー適合度を 81.48%±0.43% に達し、決定木より21ポイント高いことを示し、統計的に優れた解釈性(FRAD 0.814 対 0.723、p < 0.001)と低い MSE/DTW 距離(0.0053 および 1.05)を示す。
  • 「高度が高い場所で着陸機が左へ偏っている場合には、右方向の補正を伴う上方の推力を適用する」という抽出ルールなどは、実用的な検証可能性を示し、信頼できる自律システムへの道筋を示す。

要約: 深層強化学習(DRL)エージェントは連続制御において顕著な性能を達成する一方で不透明であり、安全性が重要な領域での展開を妨げている。既存の説明可能性手法は、局所的な洞察のみを提供する(SHAP、LIME)か、連続的なダイナミクスを捉えきれない過度に単純化された代理モデルを用いる(決定木)かのいずれかである。本研究は階層型 Takagi-Sugeno-Kang (TSK) ファジィ分類器システム(FCS)を提案し、ニューラルポリシーを人間が読めるIF-THENルールに蒸留する。状態の分割にはK-Meansクラスタリングを、局所的な行動推定にはリッジ回帰を用いる。3つの定量的指標を導入する:Fuzzy Rule Activation Density(FRAD)は説明の焦点を測定、Fuzzy Set Coverage(FSC)は語彙の網羅性を検証、Action Space Granularity(ASG)は制御モードの多様性を評価する。Dynamic Time Warping(DTW)は時間的な挙動の忠実性を検証する。実証評価は
\textit{Lunar Lander(Continuous)} において、三角形のメンバーシップ関数の変種が81.48% ± 0.43% の忠実度を達成し、決定木より21ポイント上回る。このフレームワークは統計的に優れた解釈性を示し(FRAD = 0.814 対 Gaussian の 0.723、p < 0.001)、低い平均二乗誤差(MSE: 0.0053)とDTW距離(1.05)を有する。抽出されたルールの例として「高高度で着陸機が左へずれている場合は、右方向補正を伴って上向き推力を適用する」といった内容が、人間による検証を可能にし、信頼できる自律システムへ向けた道を開く。