自動運転システムにおける推論の総覧: 未解決の課題と新興パラダイム
arXiv cs.AI / 2026/3/13
💬 オピニオンIdeas & Deep AnalysisModels & Research
要点
- 本論は、高レベルの自動運転にとって堅牢な推論が主要なボトルネックであり、知覚だけが問題なのではなく、現在のシステムは長尾事象や人間のような判断を要する複雑な社会的相互作用において苦戦していると主張しています。
- 認知および対話的な複雑さに基づいて運転タスクを分解する新しい認知階層を提案し、反応性と推論のトレードオフ、社会的ゲーム推論など、七つの核心推論課題を導出しています。
- システム中心のエージェントアーキテクチャと評価実践の両方を検討し、全体論的で解釈可能な「グラスボックス」型エージェントへ向かう傾向と検証手法の改善を強調しています。
- LLMの高遅延・熟慮的な推論と車両制御のミリ秒スケールの安全要件との間に根本的な緊張を指摘し、検証可能なニューロ-シンボリックアーキテクチャと不確実性下での堅牢な推論の確立を求めています。
本文: arXiv:2603.11093v1 アナウンスタイプ: new
要旨: 高レベルの自動運転(AD)の発展は、知覚中心の制約から、堅牢で一般化可能な推論の不足というより根本的なボトルネックへと移行している。現在のADシステムは構造化された環境を扱える一方で、長尾の事象や人間のような判断を要する複雑な社会的相互作用において一貫してつまずく。一方、大規模言語モデル(LLMs)および大規模マルチモーダルモデル(MLLMs)の出現は、強力な認知エンジンをADシステムに組み込む変革的機会を提供し、単なるパターンマッチングを超えた真の理解へと移行させる。しかし、この統合を導く体系的なフレームワークは決定的に欠如している。このギャップを埋めるために、私たちはこの新興分野の包括的なレビューを提供し、推論をモジュール型の要素からシステムの認知コアへと引き上げるべきだと主張する。具体的には、単一の運転タスクをその認知的・対話的複雑さに従って分解する新しい認知階層を初めに提案する。これを基盤として、反応性と推論のトレードオフ、社会的ゲーム推論など、七つの核心的推論課題をさらに導出・体系化する。さらに、最先端の二つの視点から検討するレビューを行い、知能エージェントを構築するシステム中心のアプローチと、それらの検証のための評価中心の実践の両方を分析する。我々の分析は、全体論的で解釈可能な「グラスボックス」型エージェントへ向かう明確な傾向を示している。結論として、LLMベースの推論の高遅延・熟慮的性質と、車両制御のミリ秒スケールの安全上の要件との間に、根本的かつ未解決の緊張があることを特定した。今後の課題として、象徴的推論と物理世界を橋渡しするギャップを埋めることを主要目標とし、検証可能なニューロ・シンボリックアーキテクチャ、不確実性下での堅牢な推論、暗黙的な社会的交渉を扱うスケーラブルなモデルの開発を挙げる。