遅延を考慮した拡散ポリシー:動的タスクにおける観測―実行ギャップの橋渡し
arXiv cs.RO / 2026/3/25
💬 オピニオンIdeas & Deep AnalysisModels & Research
要点
- 本論文は、推論遅延によって観測された状態と行動実行時の状態が(数十〜数百ミリ秒の範囲で)食い違うことにより、ロボット制御がどのように影響を受けるかを扱う。
- 遅延をゼロと仮定するのではなく、計測された遅延を取り込んでポリシーを学習し実行する「Delay-Aware Diffusion Policy(DA-DP)」を提案する。
- DA-DPは、ゼロ遅延の軌道を遅延補償版に補正し、さらに遅延の条件付けを追加することで、ポリシーが異なるレイテンシに適応できるようにする。
- 複数のタスク、ロボット、および遅延設定にまたがる実験により、DA-DPは遅延を考慮しないベースラインよりも高く、より頑健な成功率を達成することが示される。
- このアプローチはアーキテクチャに依存しない。また、タスクの難しさだけでなく計測されたレイテンシに対する性能を報告する評価プロトコルの必要性も示唆する。




