WARPED:自己視点の人間デモンストレーションからロボット方策学習のための手首整列レンダリング
arXiv cs.RO / 2026/4/14
📰 ニュースSignals & Early TrendsModels & Research
要点
- 本論文は、自己視点の人間デモンストレーション動画から、手首整列(ロボットのような)観測を現実的に合成し、視覚運動方策を学習するためのフレームワークWARPEDを提案する。
- 手首/手のひらレベルのカメラからデータを収集し、ビジョン基盤モデルでシーンを初期化し、手と物体の相互作用を追跡したうえで、動作をロボットの終端エフェクタへリテargetすることで、単眼のRGBデータのみを用いて学習を可能にする。
- WARPEDはガウススプラッティングによって写真のようにリアルな手首視点入力を生成し、専用のマルチビュー/深度ハードウェアに頼る代わりに、こうした合成観測に対して方策を直接学習できる。
- 5つの卓上操作タスクでの実験では、遠隔操作(テレオペレーション)デモンストレーションから学習した方策と同等の成功率を示し、人間のデータ収集時間を5〜8倍削減できることが確認された。




