単眼距離推定を用いた教員-生徒アプローチによる視覚ベース全方位ナビゲーションの学習
arXiv cs.RO / 2026/4/30
💬 オピニオンDeveloper Stack & InfrastructureTools & Practical UsageModels & Research
要点
- この論文は、2D LiDARのスキャン平面外(上方・下方)の障害物を見落とす課題に対し、視覚ベースで全方位の障害物回避を行えるナビゲーション手法を提案する。
- teacher-student(教員-生徒)フレームワークを用い、NVIDIA Isaac Lab上でPPOにより学習した教師ポリシーが特権的な2D LiDAR情報を活用し、その挙動を単眼深度だけに基づく生徒ポリシーへ蒸留する。
- 生徒は4台のRGBカメラから取得した画像をもとに、ファインチューニングしたDepth Anything V2による単眼距離推定(MDE)だけで動作し、推論時にLiDARを不要にする。
- 推論はNVIDIA Jetson Orin AGXを搭載したDJI RoboMaster上で完結し、距離推定・ポリシー実行・モータ制御までをエンドツーエンドで処理する。
- シミュレーションでは成功率が82–96.5%(2D LiDAR教師は50–89%)と高く、現実環境でも張り出し構造や背の低い物体など、2D LiDARのスキャン平面外の複雑な3次元障害物で生徒が優れることを示す。
