意思決定を考慮するエンドツーエンドのマルチスケール注意機構を用いた、説明可能な自律運転モデル

arXiv cs.CV / 2026/5/4

📰 ニュースIdeas & Deep AnalysisModels & Research

要点

  • 本論文は、ディープラーニングのブラックボックス性が、意思決定の理解や故障の予測などの観点から自動運転の信頼できる実運用を制限していると主張している。
  • それに対し、運転の意思決定を推論コンポーネントに入力し、各判断に対して同時にケース固有の説明を生成する、エンドツーエンドのマルチスケール注意ベースモデルを提案している。
  • 評価では一般的なF1スコアに加え、説明可能AI(XAI)の「正確性と信頼性」を測るための新しい指標として「Joint F1 score」を提案している。
  • BDD-OIAで検証したうえで、nu-ARデータセットでも一般化能力と頑健性を追加検証し、推論ネットワークが従来手法および最先端手法より優れていることを示している。
  • 全体として、自律運転モデルをより確実に解釈するための枠組みを提供し、安全な実運用に向けた説明可能システムの導入を後押しすることを狙っている。

Abstract

コンピュータビジョンの活用は、さまざまな分野において徐々に増加しています。これらはブラックボックス的な性質を持つ深層学習モデルを用いています。ニューラルネットワークの挙動、特にその意思決定プロセスを説明できない場合、それらの効率を認識したり、システム故障を予測したり、現実世界のアプリケーションに効果的に実装したりすることはできません。完全自動運転システムにおいて深層学習が避けられないことから、その挙動を説明するための多くの手法が提案されていますが、これらはいずれも誤った推論や信頼できない指標に悩まされており、自動運転車における複雑なモデルの包括的な理解を妨げ、真に信頼できるシステムの開発を阻害してきました。本研究では、運転の意思決定を推論コンポーネントに入力することで、各意思決定に対して同時に事例固有の説明を提供する、多尺度の注意(attention)ベースのモデルを提案します。本モデルの性能を定量的に評価するために、F1スコア指標を用いるとともに、説明可能な人工知能(XAI)におけるモデルの正確で信頼できる性能を示すための、新しい指標であるJoint F1スコアも提案します。BDD-OIAデータセットに加えて、提案ネットワークの汎化能力と頑健性をさらに検証するためにnu-ARデータセットも利用します。その結果、推論ネットワークが、従来の手法および最先端の手法よりも優れていることが示されました。