GenerativeMPC:仮想インピーダンスによるVLM-RAG誘導・両手携帯型マニピュレーションの全身MPC
arXiv cs.RO / 2026/4/22
📰 ニュースDeveloper Stack & InfrastructureModels & Research
要点
- 本論文は、両手のモバイルマニピュレーションにおいて、セマンティックな状況理解と物理的な制御制約を結び付ける階層型サイバーフィジカル・フレームワーク「GenerativeMPC」を提案する。
- Vison-Language ModelにRetrieval-Augmented Generation(VLM-RAG)を組み合わせ、視覚と言語の文脈から、Whole-Body Model Predictive Controller(MPC)の動的な速度制限や安全マージンなどの制約を“根拠付け(グラウンディング)”して出力する。
- さらにVLM-RAGは、統一されたインピーダンス-アドミッタンス制御に向けて仮想的な剛性・減衰ゲインも調整し、人とロボットの相互作用中に文脈依存のコンプライアンス(柔軟性)を実現する。
- 経験に基づくベクトルデータベースを用いることで、再学習なしにパラメータの根拠付けを一貫させ、実運用での安定性と有用性を高める。
- MuJoCo、IsaacSim、そして実機の両手プラットフォームでの実験により、人の近くで約60%の速度低減が得られ、意味論から物理パラメータへ接続することで安全で“社会的に配慮した”ナビゲーションと操作が示された。



