要旨: 近年のTransformerおよびMambaアーキテクチャは点群表現学習を大きく前進させてきましたが、一般には単一タスクまたは単一ドメインの設定向けに開発されています。これらをマルチタスクドメイン汎化(DG)にそのまま適用すると、性能が低下します。Transformerはグローバルな依存関係を効果的にモデル化できる一方で、二次的な注意コストを負担し、さらに明示的な構造順序付けが欠けています。対してMambaは線形時間の再帰を提供しますが、多くの場合、座標に基づくシリアライズ(直列化)に依存しており、視点の変化や欠損領域に敏感です。その結果、構造のドリフトが生じ、逐次モデリングが不安定になります。本論文では、ドメインとタスクをまたいで構造階層を保持する、Mambaベースのインコンテキスト学習フレームワークであるStructure-Aware Domain Generalization(SADG)を提案します。私たちは、重心ベースのトポロジと測地線の曲率の連続性を用いて、変換に不変なシーケンスを生成する構造認識シリアライズ(SAS)を設計します。さらに、同一ドメイン内の構造を統合し、ドメイン間の関係を融合することで、クロスドメイン推論を安定化する階層型ドメイン認識モデリング(HDM)を考案します。テスト時には、モデルパラメータを更新せずに、スペクトル領域においてターゲット特徴をソースのプロトタイプへとシフトさせる軽量なスペクトルグラフアラインメント(SGA)を導入し、構造を保持したテスト時特徴シフトを保証します。加えて、マルチタスクDG評価のための実走査(real-scan)物体データセットであるMP3DObjectを導入します。包括的な実験により、提案手法が構造の忠実性を向上させ、復元、デノイジング、登録(registration)を含む複数のタスクにおいて、常に最先端手法を一貫して上回ることを示します。
Mambaは文脈から学ぶ:マルチタスク点群理解のための、構造を考慮したドメイン一般化
arXiv cs.CV / 2026/3/24
📰 ニュースSignals & Early TrendsIdeas & Deep AnalysisModels & Research
要点
- 本論文では、点群理解におけるマルチタスクのドメイン一般化を改善するために、構造を考慮したMambaベースのインコンテキスト学習フレームワークであるSADGを提案し、素朴なTransformer/Mambaの転移が性能を低下させる問題に対処する。
- セントロイドベースのトポロジと、測地線曲率の連続性を用いた構造を考慮したシリアライズ(SAS)を導入し、変換に不変な系列を生成して構造的ドリフトを抑制する。
- ドメイン間推論の安定化のために階層的ドメイン対応モデリング(HDM)を追加し、ドメイン内の構造を統合し、ドメイン間の関係を融合する。
- パラメータ更新を伴わないテスト時適応として、軽量なスペクトルグラフアライメント(SGA)を提案し、構造特性を保持しつつ、ターゲット特徴をソースのプロトタイプへとシフトさせる。
- 著者らはまた、マルチタスクのドメイン一般化を評価するための実スキャン物体データセットMP3DObjectを公開し、再構成、ノイズ除去、登録の各タスクで一貫した最先端の改善を報告している。




