TouchGuide:接触のガイダンスによるビジュオモーターポリシーの推論時ステアリング
arXiv cs.RO / 2026/5/1
💬 オピニオンDeveloper Stack & InfrastructureSignals & Early TrendsModels & Research
要点
- TouchGuideは、接触を伴うロボット操作を改善するために、推論時に触覚フィードバックを活用する二段階のビジュオモータ手法である。
- まず、事前学習済みの拡散モデルまたはフローマッチングのポリシーで、視覚のみを使って粗い(視覚的に妥当な)アクションを生成し、その後CPM(接触物理モデル)で触覚に基づくガイダンスを行い、アクションを精緻化する。
- CPMは限られた熟練デモでコントラスト学習により訓練され、触覚に基づく実現可能性スコアを提供して、物理的な接触条件を満たす方向へサンプリングを誘導する。
- 高品質な触覚データを低コストで収集するために、TacUMIというデータ収集システムを提案しており、硬い指先を用いて直接的な触覚信号を取得する。
- 靴ひも結びやチップの受け渡しなど5つの難しい接触タスクで実験を行った結果、TouchGuideは既存の最先端のビジュオ・タクタイル・ポリシーを一貫して大きく上回る。

![[はじめてのnote]人間はAIにどこまで任せられるのか。](/_next/image?url=https%3A%2F%2Fassets.st-note.com%2Fproduction%2Fuploads%2Fimages%2F272323116%2Frectangle_large_type_2_cdc23772da0af48754759e5922c4bfc5.png%3Fwidth%3D219%26dpr%3D2%26frame%3D1%26format%3Djpg&w=3840&q=75)


