広告

大きな初期擾乱下におけるカメラ・LiDAR外部パラメータ較正のためのネイティブ領域クロスアテンション

arXiv cs.CV / 2026/4/1

📰 ニュースSignals & Early TrendsIdeas & Deep AnalysisModels & Research

要点

  • 本論文は、初期外部パラメータ推定が真値から大きく外れている場合でも、カメラ—LiDAR間の対応関係を改善することで外部パラメータ較正(カメラ・LiDARの外部パラメータ較正)に取り組む。
  • 外部パラメータに着目したクロスアテンションの枠組みを提案し、LiDARを深度マップへ射影することによって生じる3D歪みを回避しつつ、画像パッチとLiDAR点群をそれぞれのネイティブな領域上で対応付ける。
  • 本手法は、外部パラメータの仮説を注意(attention)/対応関係のモデリングへ直接注入することで、モダリティ間の幾何整合的な融合を維持する。
  • KITTIおよびnuScenesでの実験により、大きな擾乱下において、精度と頑健性の両面で従来の最先端手法に対して一貫した性能向上が示される。
  • 著者らは、大きな外部パラメータ擾乱下で、KITTIで88%、nuScenesで99%の較正成功率を報告しており、コードを提示されたGitHubリンクで公開している。

Abstract

正確なカメラ-LiDAR融合は、正確な外部パラメータ(extrinsic)校正に依存しており、これは本質的に、潜在的に大きな位置ずれの下で信頼できる異モダリティ間の対応関係を確立することにかかっています。既存の学習ベース手法は、一般に特徴融合のためにLiDAR点を深度マップへ投影しますが、これにより3D幾何が歪み、外部パラメータの初期化が真値から遠い場合に性能が低下します。この問題に対処するために、本研究では、ネイティブな領域において画像パッチとLiDAR点群を直接整合させる、外部パラメータを意識したクロスアテンションの枠組みを提案します。提案する注意機構は、対応関係モデリングの過程に外部パラメータ仮説を明示的に注入し、2Dの深度マップへの投影に依存することなく、幾何整合性のある異モダリティ間相互作用を可能にします。KITTIおよびnuScenesベンチマークでの大規模な実験により、提案手法が精度と頑健性の両面で一貫して最先端手法を上回ることを示します。外部パラメータの大きな摂動下でも、提案手法はKITTIのケースで88%、nuScenesのケースで99%の割合で正確な校正を達成し、2番目に優れたベースラインを大幅に上回ります。コミュニティのために、コードをhttps://github.com/gitouni/ProjFusion でオープンソース化しました。

広告