「力」と「デモ」に導かれたシミュレーションデータから、3D準拠(コンプライアント)フロー・マッチング方策を学習する——Flow with the Force Field

arXiv cs.RO / 2026/4/17

💬 オピニオンDeveloper Stack & InfrastructureIdeas & Deep AnalysisModels & Research

要点

  • 本論文は、接触を伴うマニピュレーション課題において現行のビジョンモータ・ポリシーがコンプライアンス(順応性)を十分に扱わず、過剰な接触力や不確実性下での脆い挙動につながり得るという課題に取り組みます。
  • 1人の人間デモを使って力に基づく(force-informed)シミュレーションデータを生成する枠組みを提案し、大量データ収集の負担を抑えます。
  • この力に基づくデモ誘導の合成データと、コンプライアントなフロー・マッチング方策を組み合わせることで、シミュレーションで学んだビジョンモータ方策の実機ロボットへの転移性能を高めます。
  • 実機タスク(非把持でのブロック反転、二腕での物体移動)に対する検証では、接触の維持の信頼性と、未知条件への適応性が示されます。
  • シミュレーション上で得られる軌道を物理的に意味のあるものにし、学習に必要なだけの品質でSim2Realギャップを緩和することを狙っています。

抽象: 視覚運動ポリシーは近年進歩を遂げてきましたが、接触が豊富なタスクは依然として課題として残っています。継続的な接触を必要とするロボット操作タスクでは、コンプライアンス(順応性)と力の明示的な取り扱いが求められます。しかし、ほとんどの視覚運動ポリシーはコンプライアンスを無視してしまい、現実世界における物理的な相互作用の重要性を見落としがちです。その結果、過剰な接触力や、不確実性下での脆弱な挙動につながることがよくあります。視覚に基づく模倣学習へ力情報を導入すれば、接触への認識を高めるのに役立つ可能性がありますが、良好な性能を得るには大量のデータが必要になる場合もあります。データ不足への対策の1つは、シミュレーションでデータを生成することです。しかし、Sim2Realギャップ(シミュレーションから現実への差)で困らないほど十分に良いデータを生成するには、計算負荷の高いプロセスが必要です。本研究では、単一の人間によるデモンストレーションによって具体化した、シミュレーション上で力に基づくデータを生成するための枠組みを提案し、合順応(コンプライアント)なポリシーと結合することで、合成データから学習した視覚運動ポリシーの性能がどのように向上するかを示します。提案手法を実ロボットのタスクで検証します。具体的には、非把持(非プレーンセプスレ)なブロックの反転や、バイマニュアル(両手)による物体移動を含みます。このとき学習されたポリシーは、接触の維持が確実であり、さらに新規条件への適応も示しました。プロジェクトWebサイト: https://flow-with-the-force-field.github.io/webpage/