Connected Dependability Cage:安全な自動運転車の開発・運用における実行時機能監視と異常監視
arXiv cs.RO / 2026/5/1
📰 ニュースDeveloper Stack & InfrastructureModels & Research
要点
- この論文は、予測困難な環境で動作するAI搭載の自動運転における安全課題を扱い、従来の機能安全を超えて故障時も安全運行を継続する「フェイルオペレーショナル性」の必要性を論じています。
- 「Connected Dependability Cage」は、AI知覚(パーセプション)システムにおける階層的なフェイルオペレーショナル動作を実現するためのアーキテクチャ・フレームワークとして提案されています。
- フレームワークは、複数の異種AI知覚パイプラインの整合性を投票(voting)で検出する「Function Monitor」と、訓練データに含まれない可能性のある未知・新規物体の検出により信頼性を評価する「Anomaly Monitor」を組み合わせます。
- 致命的な不一致が発生した場合、システムは円滑な劣化(グレースフル・ディグレデーション)を行い、最終的に最小リスクの操舵(マンバー)戦略へ移行できるとしています。
- いずれかの監視機構が安全フラグを立てると、自動でデータ記録が開始され、反復的な開発と継続的な改善を支えます。これらの監視機構は、広範な車両テストによって実運用での有効性が検証されています。




