TouchGuide:接触のガイダンスによるビジュオモーターポリシーの推論時ステアリング

arXiv cs.RO / 2026/5/1

💬 オピニオンDeveloper Stack & InfrastructureSignals & Early TrendsModels & Research

要点

  • TouchGuideは、接触を伴うロボット操作を改善するために、推論時に触覚フィードバックを活用する二段階のビジュオモータ手法である。
  • まず、事前学習済みの拡散モデルまたはフローマッチングのポリシーで、視覚のみを使って粗い(視覚的に妥当な)アクションを生成し、その後CPM(接触物理モデル)で触覚に基づくガイダンスを行い、アクションを精緻化する。
  • CPMは限られた熟練デモでコントラスト学習により訓練され、触覚に基づく実現可能性スコアを提供して、物理的な接触条件を満たす方向へサンプリングを誘導する。
  • 高品質な触覚データを低コストで収集するために、TacUMIというデータ収集システムを提案しており、硬い指先を用いて直接的な触覚信号を取得する。
  • 靴ひも結びやチップの受け渡しなど5つの難しい接触タスクで実験を行った結果、TouchGuideは既存の最先端のビジュオ・タクタイル・ポリシーを一貫して大きく上回る。