広告

ハードウェアの深度故障下における屋内ロボット航法のためのブートストラップ知覚

arXiv cs.RO / 2026/4/1

📰 ニュースSignals & Early TrendsIdeas & Deep AnalysisModels & Research

要点

  • 反射面などの環境要因で深度センサー(ToF)が最大78%の深度ピクセルを失う前提で、屋内ロボット航法向けのブートストラップ型知覚システムを提案しています。
  • ToFの故障(欠損)を「自分自身の状態」から利用し、生き残った有効ピクセルで学習済みのモノキュラー深度をメートルスケールへ較正して、欠損領域を自律的に補完します。
  • LiDARを幾何学的アンカーとして常に保持し、有効な深度はそのまま使い、欠損時のみ学習深度を選択的に補う「故障対応のセンシング階層」を構成します。
  • 回廊および動的な歩行者環境で、選択的フュージョンによりコストマップの障害物カバー率がLiDAR単独比で55〜110%向上し、Jetson Orin Nano上で218FPSのコンパクト蒸留モデルが衝突ゼロの閉ループシミュレーションで9/10の成功率を示しました。

Abstract

本稿では、ハードウェアの深度障害下での屋内ロボットナビゲーションのためのブートストラップ知覚システムを提案する。回廊データでは、飛行時間型カメラ(ToF)が反射面上で最大78%の深度ピクセルを失う一方で、2D LiDAR単独では、そのスキャン平面より上の障害物を検知できない。本システムは、この障害に自己参照的な性質があることを利用する。すなわち、センサが生き残って有効なピクセルは、学習された単眼深度をメートルスケールへ校正できるため、外部データなしにシステム自身の欠損を埋め合わせることが可能になる。提案アーキテクチャは、センサの動作状況を考慮したセンシング階層を形成し、センサが機能しているときは保守的に動作し、故障したときは補完する。LiDARは幾何学的アンカーとして維持され、ハードウェア深度は有効な箇所に保持され、学習深度は必要な箇所にのみ投入される。回廊および動的歩行者の評価において、選択的フュージョンにより、LiDAR単独に比べてコストマップ上の障害物カバレッジが55〜110%増加する。コンパクトに蒸留した学生モデルは、Jetson Orin Nano上で218\,FPSで動作し、クローズドループシミュレーションで衝突ゼロのままナビゲーション成功率9/10を達成する。さらに、その性能は基盤モデルのコストの一部でありながら、正解(ground-truth)の深度ベースラインに一致する。

広告