TouchAnything:拡散誘導による疎なロボット触覚接触からの3D再構成
arXiv cs.CV / 2026/4/13
📰 ニュースSignals & Early TrendsIdeas & Deep AnalysisModels & Research
要点
- TouchAnythingは、ロボットから得られる疎な触覚接触計測のみを用いて、正確な3D物体形状を推定するための拡散誘導フレームワークとして提示される。視界の遮蔽や照明条件の不良によるビジョンの限界に対処する。
- 本手法は、カテゴリ固有の触覚再構成ネットワークや触覚データ上で直接拡散モデルを学習するのではなく、大規模な2D視覚拡散モデルで事前学習された幾何学的および意味的な事前知識を触覚ドメインへ転移する。
- 再構成は、疎な触覚制約との整合性を強制しつつ、拡散事前知識と一致する形状へ解を誘導することで最適化問題として定式化される。
- 著者らは、既存のベースラインに比べて再構成精度が向上すると報告し、粗いクラスレベルの説明に基づいて、これまで未見の物体インスタンスに対するオープンワールドな3D再構成が可能であると主張している。




