BridgeACT:人のデモンストレーションからロボット動作へ—統一ツール・ターゲットのアフォーダンスによる架け橋
arXiv cs.RO / 2026/4/28
📰 ニュースDeveloper Stack & InfrastructureModels & Research
要点
- BridgeACTは、人の動画からロボットの操作を学習するための新しいアフォーダンス駆動フレームワークであり、ロボット側のデモンストレーションデータを不要にしています。
- 人のデモと実行可能なロボット行動をつなぐために、身体(エンボディメント)に依存しない中間表現としてアフォーダンスをモデル化します。
- 操作を「どこで把持するか」と「どう動かすか」の2つに分解し、まず現場のシーンからタスクに関連するアフォーダンス領域を特定し、その後人のデモンストレーションに基づいてタスク条件付きの3Dモーションアフォーダンスを予測します。
- 学習したアフォーダンスは把持モジュールと軽量なクローズドループ運動制御器によってロボット動作へ対応付けられ、実ロボットへの直接デプロイを可能にします。
- 実世界の操作タスクでの実験では、従来手法より高い性能を示し、未知の物体・シーン・視点への汎化性能も良好です。



