Drive My Way:個別化された運転のための視覚言語行動モデルにおける嗜好整合

arXiv cs.RO / 2026/3/27

📰 ニュースSignals & Early TrendsIdeas & Deep AnalysisModels & Research

要点

  • この論文では、自律運転のための個別化されたVision-Language-Action(VLA)フレームワークであるDrive My Way(DMW)を提案する。汎用的な目的関数や固定された運転モードではなく、個々の長期的な運転習慣に適応する。
  • DMWは複数ドライバーによる個別化データセットからユーザー埋め込みを学習し、その埋め込みに基づいて計画方策を条件付けすることで、さまざまなシナリオにおいて各ドライバーのスタイルを表現する。
  • ユーザー埋め込みと自然言語の指示を組み合わせることで、長期的な嗜好の整合と、運転者からのリアルタイムの意図の双方を取り込む。
  • Bench2Driveベンチマークでのクローズドループ実験により、スタイルに関連する指示への適応が向上することが示され、ユーザースタディでは、その結果の行動が各ドライバー自身のスタイルに一致していると認識できることが示される。
  • 著者らは再現性とさらなる研究を支援するため、データとコードを公開している(dmw-cvpr.github.io)。

Abstract

人間の運転行動は本質的に個人的であり、長期的な習慣によって形成され、短期的な意図によって影響を受けます。個人は、多様な状況において加速、ブレーキ、合流、譲り合い、および追い越しをどのように行うかが異なります。しかし、既存のエンドツーエンド自動運転システムは、一般的な目的を最適化するか、固定された運転モードに依存するため、個人の嗜好に適応したり、自然言語の意図を解釈したりする能力がありません。このギャップを埋めるために、私たちは、ユーザの長期的な運転習慣に整合し、リアルタイムのユーザ指示に適応するパーソナライズされたVision-Language-Action(VLA)運転フレームワークであるDrive My Way(DMW)を提案します。DMWは、複数の実ドライバと条件のもとで収集したパーソナライズ運転データセットからユーザ埋め込みを学習し、計画中にこの埋め込みに基づいて方策を条件付けます。一方で、自然言語の指示が追加の短期的ガイダンスを提供します。Bench2Driveベンチマークにおけるクローズドループ評価により、DMWがスタイル指示への適応を改善することが示され、ユーザスタディでは、生成された行動が各ドライバ固有のスタイルとして認識できることが確認されました。これは、人間中心の自動運転における重要な能力としてパーソナライズを強調するものです。データとコードは https://dmw-cvpr.github.io/ で利用可能です。