要旨: 安全性とセキュリティは、自動運転車(automated)および自律走行車(autonomous)の受け入れ・採用に不可欠である。深層ニューラルネットワーク(DNNs)は、自動運転(AD)スタックにおける認識およびそれ以降の構成要素に広く用いられている。しかし、汎化能力の欠如、効率性、説明可能性、もっともらしさ(plausibility)、頑健性の欠如など、いくつかの制限がある。これらの不足は、自律走行システムに重大なリスクをもたらし得る。とはいえ、この領域におけるDNNの制限に関連する危険(hazards)、脅威(threats)、リスクは、これまで体系的に研究されてこなかった。本研究では、ISO 26262に従うハザード分析とリスクアセスメント(HARA)および、ISO/SAE 21434に従う脅威分析とリスクアセスメント(TARA)を組み合わせた、リスク評価のための共同ワークフローを提案する。これにより、AD認識におけるDNNの内在的な制限に起因するリスクを特定し、分析する。
自動運転の認識における深層ニューラルネットワークの制約に対する体系的リスク評価への取り組み
arXiv cs.LG / 2026/4/24
💬 オピニオンIdeas & Deep AnalysisModels & Research
要点
- この論文は、自動運転の知覚(パーセプション)に用いられる深層ニューラルネットワーク(DNN)が、汎化性能の不足、効率の低さ、説明可能性の乏しさ、尤度(プラウジビリティ)の問題、ロバスト性の弱さといった基本的な面で失敗し得ると主張しています。
- 一方で、DNNの欠点に起因するハザード(危険)や脅威、リスクについては、自動運転の認識領域でそれらを体系的に扱った研究がこれまで十分になされていないと指摘しています。
- 著者らは、ISO 26262に沿ったハザード分析とリスク評価(HARA)と、ISO/SAE 21434に沿った脅威分析とリスク評価(TARA)を組み合わせる「共同ワークフロー」を提案しています。
- この目的は、DNN固有の制約から生じるリスクを特定し、分析することで、自動運転車両のより安全な受容につなげることにあります。
- 本研究はarXivのプレプリント(v1)として公開されており、標準や製品リリースというより研究段階の貢献であることが示されています。



