FODMP:時間依存ロボット行動の生成のための運動プリミティブをワンステップで高速に拡散する手法
arXiv cs.AI / 2026/3/27
💬 オピニオンSignals & Early TrendsIdeas & Deep AnalysisModels & Research
要点
- 本論文は、拡散ベースのロボット学習における制約に取り組む。既存のアクション・チャンク化拡散ポリシーは高速だが、短く反応的な運動セグメントしか生成できず、時間依存の運動プリミティブを取り逃してしまう。
- 本手法は、時間的に構造化された軌道を表すためにProDMPを用いるMovement Primitive Diffusion(MPD)を発展させる。しかしMPDは、運動デコーダが多段の拡散プロセスに組み込まれているため、依然として遅い。
- 著者らはFODMPを提案する。拡散モデルをProDMP軌道パラメータ空間へ蒸留し、単一ステップのデコーダで運動を生成することで、推論時のボトルネックを除去する。
- MetaWorldおよびManiSkillでの実験により、FODMPはMPDに対して最大10倍、アクション・チャンク化拡散ポリシーに対して7倍高速に動作できることが示され、成功率は維持、または向上する。
- 本フレームワークにより、閉ループ視覚制御のもとで、素早く飛来するボールをインターセプトしてキャッチするなどのリアルタイム課題を改善する動的な加速–減速プリミティブも実現できる。



