協調ビューに基づく教師なしマルチエージェントおよびシングルエージェント知覚

arXiv cs.CV / 2026/4/8

📰 ニュースSignals & Early TrendsIdeas & Deep AnalysisModels & Research

要点

  • 本論文は、人手によるアノテーションなしで、マルチエージェントとシングルエージェントの3D知覚を同時に扱える教師なしフレームワークを提案することで、LiDAR知覚におけるギャップを解決することを目的とする。
  • 協調センサ共有の中核的な2つの利点として、複数エージェントからの情報により点群がより密になり教師なしでの物体分類が改善すること、またマルチエージェントの協調ビューがシングルビューでの3D物体検出に対して教師なしのガイダンスを与え得ることを挙げる。
  • 提案するUMSフレームワークは、密度の協調後に候補提案を精製するProposal Purifying Filter、イージー・トゥ・ハードのカリキュラム学習により信頼できる疑似ラベルを生成するProgressive Proposal Stabilizingモジュール、そして協調ガイダンスをシングルエージェント検出へ転送するCross-View Consensus Learningを用いる。
  • V2V4RealおよびOPV2Vでの実験により、UMSは教師なし設定の両方の知覚シナリオにおいて、従来の最先端手法よりも有意に優れた3D検出性能を達成することが示される。
  • 全体として、本研究は、エージェント間の通信とコンセンサス学習を組み合わせることで、実世界のロボットおよび自動運転の知覚パイプラインにおけるラベル付きデータへの依存を低減できる可能性を示唆している。

Abstract

LiDARベースのマルチエージェントおよびシングルエージェントの知覚は、ロボットや自動運転車における環境理解で有望な性能を示してきました。しかし、教師なしの形でマルチエージェントとシングルエージェントの両方の知覚を同時に解決する既存手法はありません。本論文では、通信により複数のエージェント間でセンサデータを共有することで、2つの重要な洞察を明らかにします。1)協調ビューからデータ共有を行うことで点群密度が改善され、教師なしの物体分類に有益であること、2)複数エージェントの協調ビューは、シングルビューにおける3D物体検出の教師なしガイダンスとして利用できることです。これら2つの洞察に基づき、本論文では、人手による注釈なしで、マルチエージェント協調を活用してマルチエージェントとシングルエージェントの両方の知覚を同時に解決する、教師なしマルチエージェントおよびシングルエージェント(UMS)知覚フレームワークを提案します。UMSは、マルチエージェントの点群密度の協調の後に候補提案(candidate proposals)をより良く分類するための学習ベースのProposal Purifying Filterと、その後に、易しいものから難しいものへ段階的に進むカリキュラム学習によって扱いやすい擬似ラベル(pseudo labels)を生成するProgressive Proposal Stabilizingモジュールを組み合わせます。さらに、マルチエージェントの協調ビューを用いてシングルエージェントビューでの検出を導くためのCross-View Consensus Learningも設計します。2つの公開データセットV2V4RealおよびOPV2Vでの実験結果は、教師なし設定において、我々のUMS手法がマルチエージェントおよびシングルエージェントの知覚タスクの両方で、最先端手法よりも有意に高い3D検出性能を達成したことを示しています。