意思決定を考慮するエンドツーエンドのマルチスケール注意機構を用いた、説明可能な自律運転モデル
arXiv cs.CV / 2026/5/4
📰 ニュースIdeas & Deep AnalysisModels & Research
要点
- 本論文は、ディープラーニングのブラックボックス性が、意思決定の理解や故障の予測などの観点から自動運転の信頼できる実運用を制限していると主張している。
- それに対し、運転の意思決定を推論コンポーネントに入力し、各判断に対して同時にケース固有の説明を生成する、エンドツーエンドのマルチスケール注意ベースモデルを提案している。
- 評価では一般的なF1スコアに加え、説明可能AI(XAI)の「正確性と信頼性」を測るための新しい指標として「Joint F1 score」を提案している。
- BDD-OIAで検証したうえで、nu-ARデータセットでも一般化能力と頑健性を追加検証し、推論ネットワークが従来手法および最先端手法より優れていることを示している。
- 全体として、自律運転モデルをより確実に解釈するための枠組みを提供し、安全な実運用に向けた説明可能システムの導入を後押しすることを狙っている。



