概要: SLAM技術の進歩にもかかわらず、低テクスチャ、モーションブラー、あるいは困難な照明といった厳しい条件下での頑健な動作は、依然として未解決の課題です。このような条件は、視覚障がい者のための支援的ナビゲーションといったアプリケーションでよく見られます。これらの課題は、ローカライゼーションの精度とトラッキングの安定性を損ない、ナビゲーションの信頼性と安全性を低下させます。これらの制限を克服するために、SuperPointとLightGlueを統合して頑健な特徴抽出とマッチングを行う、深層学習強化型の視覚SLAMフレームワークであるSELM-SLAM3を提案します。提案手法を、TUM RGB-D、ICL-NUIM、TartanAirのデータセットを用いて評価しました。これらのデータセットは、多様で挑戦的なシナリオを特徴としています。SELM-SLAM3は従来のORB-SLAM3に対して平均87.84%上回り、最先端のRGB-D SLAMシステムを36.77%超えています。提案フレームワークは、低テクスチャのシーンや高速な動きといった困難な条件下で性能が向上しており、視覚障がい者のためのナビゲーション支援を開発するための信頼できる基盤となることを示しています。
視覚障害者のナビゲーション支援を目指す、ディープラーニングによるビジュアルSLAM
arXiv cs.RO / 2026/4/10
📰 ニュース
要点
- 本論文は、ビジュアルSLAMにおける未解決の課題に取り組む。すなわち、低テクスチャ、モーションブラー、対処が難しい照明条件といった状況で、特に支援的ナビゲーションに関連して重要となる、頑健な自己位置推定と追跡を維持すること。