要旨: 推論時に視覚的監視を一切用いずに動作するソフトロボットのゼロショット変形再構成フレームワークを提示します。本研究では、ゼロショット変形再構成を、デプロイ時に物体固有の変形データを収集したり再訓練を行ったりせず、未見のソフトロボット全体の変形を推定する能力として定義します。本手法は、変形前の物体の静的な幾何学的代理体へのアクセスを想定しており、それはSTLモデルから取得可能です。動作中、システムは触覚センサのみに依存し、カメラを使わない変形推定を可能にします。提案されたフレームワークは、柔軟なピエゾ抵抗センサアレイを、ジオメトリ認識型のケージベースの3Dガウス変形モデルと組み合わせます。局所的な触覚測定は、低次元のケージ制御信号へ写像され、密なガウスプリミティブへ伝播して、グローバルに一貫した形状変形を生成します。グラフアテンションネットワークが触覚入力からケージの変位を回帰し、境界認識伝播を介して空間的な滑らかさと構造的連続性を強制します。名目上の幾何学的代理体とリアルタイムの触覚信号のみを用いると、システムは未見のソフトロボットの曲げとねじりの運動に対するゼロショット変形再構成を実行し、リアルタイムでフォトリアリスティックなRGBをレンダリングします。0.67 IoU、0.65 SSIM、および3.48 mm Chamfer距離を達成し、触覚センサーと構造化幾何変形の明示的な結合による強力なゼロショット一般化を示します。
柔らかいロボットのゼロショット変形再構成のための、柔軟なセンサーアレイとケージベースの3Dガウスモデリングを用いた手法
arXiv cs.RO / 2026/3/23
📰 ニュースTools & Practical UsageModels & Research
要点
- 視覚監視を一切用いず推論時に動作する、ソフトロボットのゼロショット変形再構成フレームワーク。静的な幾何学的代理とリアルタイムの触覚測定に依存する。
- このアプローチは、柔軟なピエゾ抵抗センサアレイとケージベースの3Dガウス変形モデルを組み合わせ、局所的な触覚測定をケージ制御信号へマッピングし、それがグローバルな変形を駆動する密なガウスプリミティブを生み出す。
- グラフアテンションネットワークが触覚入力からケージの変位を回帰し、空間的な滑らかさと境界を考慮した伝搬を実現して、未知のソフトロボットの屈曲とねじりへの一般化を可能にする。
- 本システムはIoU 0.67、SSIM 0.65、Chamfer距離3.48 mmを達成しつつ、リアルタイムでフォトリアルなRGBをレンダリングすることで、触覚とジオメトリの結合を介した強力なゼロショット一般化を示している。




