広告

動的な製造環境における移動ロボットのためのROS 2ベースLiDAR知覚フレームワーク:合成データ生成、変換エコイバリアント3D検出、多対象追跡を活用

arXiv cs.RO / 2026/4/3

💬 オピニオンIdeas & Deep AnalysisModels & Research

要点

  • 本論文は、動的な産業製造環境における移動ロボットのためのROS 2ベースのLiDAR知覚フレームワークを提案し、6D姿勢推定と多対象追跡を対象とする。
  • 合成データを用いて変換エコイバリアントな3D検出器を学習し、現実世界データへの依存を低減しつつ、ノイズ耐性と時空間的一貫性を向上させる。
  • フレームワークは「center poses」を用いた多対象追跡を統合し、単独の姿勢推定に比べて検出から追跡への連続性を改善する。
  • 72のモーションキャプチャ評価シナリオにおいて、著者らはスタンドアロンの6D姿勢推定でIoU 62.6%、多対象追跡を追加した後で83.12%を報告している。
  • さらに本システムは91.12%のHigher Order Tracking Accuracyを達成しており、産業用モバイルマニピュレータにおけるLiDARベース知覚の頑健性と汎用性の高さを示している。

要旨: 動的な生産環境における適応型ロボットには、6D姿勢推定や多対象追跡を含む頑健な知覚能力が必要である。現実世界のデータ依存、ノイズ頑健性、および時空間的整合性における制約に対処するため、Robot Operating System(ROS)に統合された合成データで学習された変換同変(Transformation-Equivariant)3D検出と、中心姿勢(center poses)を活用する多対象追跡を組み合わせたLiDARフレームワークを提案する。モーションキャプチャ技術を用いて72のシナリオで検証した結果、単独の姿勢推定における全体のIntersection over Unionは62.6%であり、多対象追跡統合により83.12%まで向上した。提案するLiDARベースのフレームワークは、Higher Order Tracking Accuracyの91.12%を達成し、産業用モバイルマニピュレータ向けのLiDARベース知覚システムの頑健性と汎用性を前進させる。

広告