Abstract
随意に構成された環境に投入されたロボットは、移動ベースとアームを同時に動かしながら、全身運動を協調させて物理世界と相互作用する必要があります。このような連動した機動性と器用さは、シーンや対象物の多様性に応じて状態空間を組合せ的に増大させ、固定ベースの操作で足りる規模を大きく超えるデータセットを要求します。しかし、テレオペレーションや計画を含む既存の獲得手法は、いずれも(人手の)労働集約的であるか、あるいは大規模化に対して計算上の制約が大きすぎます。中核となるボトルネックは、多様な機体構成と環境にわたって、大規模かつ物理的に妥当な、協調軌道データを生成するためのスケーラブルなパイプラインが欠けていることです。ここで本研究では、GPUアクセラレーションされた枠組みであるAutoMoMaを導入します。AutoMoMaは、ベース・アーム・対象物の運動学を単一の鎖に統合するAKRモデリングと、並列化された軌道最適化を統一します。AutoMoMaはGPU 1時間あたり5,000エピソードを達成(CPUベースラインに対して80\times以上高速)し、330のシーン、さまざまな関節化された対象物、複数のロボット実装にまたがる、物理的に妥当な軌道からなるデータセット(50万超の軌道)を生成します。従来のデータセットは、規模・多様性・運動学的忠実性のいずれかで妥協を強いられていましたが、AutoMoMaはこれら3点すべてを同時に解決します。下流のIL(模倣学習)ポリシーを学習することでさらに、単一の関節化対象物タスクでさえ、SOTA手法が80fd0%の成功率に到達するためには数万規模のデモンストレーションが必要であることが明らかになり、データ不足が(アルゴリズム上の)制約ではなく拘束条件であったことが確認されます。したがってAutoMoMaは、高性能な計画と信頼性のあるILベース制御をつなぐものであり、協調移動マニピュレーション研究にこれまで欠けていたインフラストラクチャを提供します。大規模で運動学的に妥当な学習データを実用化することで、AutoMoMaは、現実世界における多様で随意に構成された環境で動作可能な、一般化しうる全身ロボットポリシーを示します。