Drive My Way:個別化された運転のための視覚言語行動モデルにおける嗜好整合
arXiv cs.RO / 2026/3/27
📰 ニュースSignals & Early TrendsIdeas & Deep AnalysisModels & Research
要点
- この論文では、自律運転のための個別化されたVision-Language-Action(VLA)フレームワークであるDrive My Way(DMW)を提案する。汎用的な目的関数や固定された運転モードではなく、個々の長期的な運転習慣に適応する。
- DMWは複数ドライバーによる個別化データセットからユーザー埋め込みを学習し、その埋め込みに基づいて計画方策を条件付けすることで、さまざまなシナリオにおいて各ドライバーのスタイルを表現する。
- ユーザー埋め込みと自然言語の指示を組み合わせることで、長期的な嗜好の整合と、運転者からのリアルタイムの意図の双方を取り込む。
- Bench2Driveベンチマークでのクローズドループ実験により、スタイルに関連する指示への適応が向上することが示され、ユーザースタディでは、その結果の行動が各ドライバー自身のスタイルに一致していると認識できることが示される。
- 著者らは再現性とさらなる研究を支援するため、データとコードを公開している(dmw-cvpr.github.io)。



