マルチエージェント相互作用における確率的責任配分の学習

arXiv cs.RO / 2026/4/16

💬 オピニオンIdeas & Deep AnalysisModels & Research

要点

  • 本論文は、俳優(エージェント)が安全性などの共有制約を満たすために望ましい行動からどのように逸脱するかを反映し、マルチエージェント相互作用において責任がエージェント間でどのように配分されるかを学習する確率モデルを提案する。
  • 条件付き変分オートエンコーダの潜在空間と、マルチエージェントの軌道予測を組み合わせることで、シーンおよびエージェント文脈に条件付けられた責任配分における多峰性の不確実性を表現する。
  • 責任の直接的なラベルが利用できないため、責任配分を誘導される制御行動へ変換する微分可能な最適化レイヤを用いて学習可能なまま維持する。
  • INTERACTION の運転データセットでの実験により、高い予測性能が示され、相互作用パターンに対する解釈可能な責任ベースの洞察が提供される。

要旨: インタラクティブな環境における人間の行動は、個人の目的だけでなく、安全などのように他者と共有する制約によっても形作られる。人々がどのように責任を配分するか、すなわち、他者への配慮のために自分の望む方針からどれほど逸脱するかを理解することは、社会的に整合的で信頼できる自律システムの設計に役立ちうる。本研究では、多主体間相互作用に内在する多峰性の不確実性を捉える確率的な責任配分モデルを学習する手法を提案する。具体的には、我々のアプローチは、条件付き変分オートエンコーダの潜在空間を、マルチエージェント軌跡予測の技術と組み合わせることで、シーンおよびエージェントの文脈に条件付けられた責任配分の分布を学習する。真の責任ラベルは利用できないが、責任配分を誘導される制御へ写像する微分可能な最適化層を組み込むことで、利用可能な情報に基づきモデルはなおも扱いやすい。我々はこの手法をINTERACTIONの運転データセットで評価し、強力な予測性能を達成するだけでなく、責任という観点を通して多主体間相互作用のパターンに関する解釈可能な洞察も提供できることを示す。