コンプライアントなロボット用グリッパのための、モデルベースな視覚接触位置推定と力センシングシステム

arXiv cs.CV / 2026/5/4

📰 ニュースDeveloper Stack & InfrastructureIdeas & Deep AnalysisModels & Research

要点

  • この論文は、変形可能なロボット・グリッパを用いて繊細な物体を損傷しにくくしつつ、把持力を視覚的に推定するモデルベースの接触位置推定・力センシング手法を提案している。
  • エンドツーエンドの深層学習に依存して汎化が脆くなる問題に対し、本システムは手首のRGB-D画像から得た構造的キーポイントと逆有限要素解析シミュレーションを統合して、観測された変形から力を推定する。
  • 反復的な接触位置推定モジュールでは、オンライン3D再構成とポーズ推定の深層学習パイプラインを用いて接触位置を動的に更新し、視覚の遮蔽や未知の対象にも頑健である。
  • 実験ではフィンレイ型のソフトグリッパで、負荷フェーズにおいてRMSE 0.23 N(NRMSD 2.11%)、把持全体ではRMSE 0.48 N(NRMSD 4.34%)を達成し、多様な条件と物体に対するリアルタイム型の間接力センシングの可能性を示した。

Abstract

握力の推定は、ロボットがマニピュレーション中に繊細な対象物を損傷するのを防ぎ、学習ベースのロボット制御を改善するのに役立ちます。変形可能なグリッパに力センサを統合することは、コスト、複雑性、機械的な頑健性、そして性能の間のトレードオフを調整することになります。制御目的で、RGB-D 手首カメラがロボットシステムへとますます統合されてきていることを踏まえると、カメラベースの手法は、間接的な視覚力推定の有望な解決策です。現在のアプローチの多くはエンドツーエンドの深層学習を利用していますが、新しい状況への汎化において脆弱になりがちです。一方で、既存のモデルベース手法は、把持と現代的な把持器(グラスパ)形状には適していません。これらの課題に対処するために、未見の対象物への汎化と反復的な接触位置の特定を統合した、モデルベースの視覚力センシング手法を開発しました。本システムは、変形するフィンレイアーム形状のソフトグリッパの手首カメラRGB-D画像から構造的な主要点を抽出し、これらの主要点を用いて、Simulation Open Framework Architecture(SOFA)における逆有限要素解析シミュレーションのパラメータを定義します。反復的な接触位置特定サブシステムは、深層学習ベースのオンライン3D再構成および姿勢推定パイプラインを利用して接触位置を動的に更新し、視覚的な遮蔽や未見の対象物に対して頑健です。提案手法は、負荷フェーズにおいて平均の二乗平均平方根誤差が 0.23 N、正規化二乗平均平方根偏差が 2.11% を示し、また様々な条件下で異なる対象物と相互作用する把持全過程では 0.48 N および 4.34% を示しました。これにより、ソフトグリッパに対するリアルタイムなモデルベースの間接力センシングとしての可能性が示されました。