Ada3Drift: 一歩の3D視覚-運動ロボット操作における訓練時適応ドリフト
arXiv cs.CV / 2026/3/13
📰 ニュースModels & Research
要点
- Ada3Driftは、訓練時のドリフト場を提案します。予測された行動を専門家のデモンストレーションモードへ引き寄せる一方で、他のサンプルからは反発させ、3D点群からの高忠実度な単一ステップ(1 NFE)視覚運動生成を可能にします。
- 拡散ベースのポリシーにおける多モードの行動分布に対処し、単一の平均軌道へ崩壊させることなく、異なるモードを保持します。
- 本手法は、粗い分布学習からモードのシャープ化リファインメントへ移行するシグモイド・スケジュール付き損失を導入し、異なる空間スケールでの行動モードを捉えるためのマルチスケール場の集約を用います。
- Adroit、Meta-World、RoboTwin のベンチマークおよび実世界のタスクにおいて最先端の性能を達成しつつ、拡散ベースのアプローチより約10分の1の関数評価で済みます。
- 本研究は、効率的な1ステップ生成を可能にすることでリアルタイムのロボット操作を前進させ、より高速な制御パイプラインの実現につながる可能性があります。
Abstract(要旨)
拡散ベースの視覚-運動ポリシーは、反復的デノイズを通じて多モードの行動分布を効果的に捉えますが、高い推論待機時間がリアルタイムのロボット制御を制限します。最近のフロー整合法と整合性に基づく手法は単一ステップ生成を実現しますが、異なる行動モードを維持する能力を犠牲にし、多モードの挙動を平均化された、しばしば物理的に実行不可能な軌道へと崩してしまいます。ロボット工学における計算予算の非対称性(オフライン学習とリアルタイム推論)は、この多モードの忠実度を回復するために推論時から学習時へ反復的改良をシフトすることで自然に動機づけられる、という観察に基づきます。これに基づき、Ada3Driftを提案します。Ada3Driftは訓練時にドリフト場を学習し、予測された行動を専門家のデモンストレーションモードへ引き寄せる一方、他の生成サンプルからは反発させることで、3D点群の観測から高忠実度な単一ステップ生成(1回の関数評価=1 NFE)を可能にします。少数ショットのロボット制御環境に対応するため、Ada3Driftは粗い分布学習からモード鋭化リファインメントへのシグモイドスケジュール付き損失遷移を導入し、異なる空間粒度での行動モードを捉えるマルチスケール場の集約を用います。3つのシミュレーションベンチマーク(Adroit、Meta-World、RoboTwin)と実世界のロボット操作タスクでの実験は、Ada3Driftが最先端の性能を達成し、拡散ベースの代替手法よりも約10分の1の関数評価で済むことを示しています。


