マルチビュー脳ネットワーク基盤モデルに向けて:任意アトラス間でのクロスビュー整合性学習

arXiv cs.CV / 2026/3/24

💬 オピニオンIdeas & Deep AnalysisModels & Research

要点

  • 本論文では、任意のアトラスを用いて構築された脳ネットワークから汎化可能な表現を学習することを目的としたマルチビュー脳ネットワーク基盤モデル「MV-BrainFM」を提案する。
  • 脳領域間の相互作用をより適切に導くため、解剖学的距離情報を明示的に取り込んだTransformerベースのモデリングを用いる。
  • 同一被験者の複数アトラス視点における表現を、共有潜在空間へ整合させるための教師なしのクロスビュー整合性学習戦略を追加する。
  • 事前学習の間、ビュー内の頑健性とクロスビューの整合性を共同で強制し、複数のデータセット/アトラスに対して統一的なマルチビューの枠組みで同時に学習することで、逐次的なアプローチよりも効率的に学習を行う。
  • 17のfMRIデータセットにわたる2万件超の被験者での実験により、MV-BrainFMは単一アトラス設定およびマルチアトラス設定のいずれにおいても、従来の脳ネットワーク基盤モデル14件およびタスク固有のベースラインを上回り、未知のアトラス構成に対しても安定した性能を示す。

Abstract

脳ネットワーク解析は、脳の組織化を特徴づけるための解釈可能な枠組みを提供し、神経疾患の同定に広く用いられてきた。近年の自己教師あり学習の進展は、脳ネットワークの基盤モデルの開発を後押ししている。しかし、既存の手法は、アトラスへの依存、複数のネットワークビューの十分な活用の欠如、解剖学的事前知識の弱い取り込みといった制約がしばしばある。本研究では、任意のアトラスで構築された脳ネットワークから、汎化可能でスケーラブルな表現を学習するためのマルチビュー脳ネットワーク基盤モデルであるMV-BrainFMを提案する。MV-BrainFMは、領域間相互作用を導くために、Transformerベースのモデリングへ解剖学的距離情報を明示的に組み込み、さらに、同一被験者の複数アトラスから得られた表現を共有潜在空間へ整列させるための教師なしクロスビュー整合学習戦略を導入する。事前学習において、ビュー内の頑健性とクロスビューの整合を共同で強制することで、アトラスを意識しつつ、異なるネットワークビュー間で補完的な情報を効果的に捉える。加えて、MV-BrainFMは、複数のデータセットおよびアトラスから同時に学習できる統一されたマルチビュー事前学習パラダイムを採用しており、従来の逐次的な学習戦略と比べて計算効率を大幅に向上させる。提案する枠組みは、未見のアトラス構成に対しても性能を安定に維持しながら、データの多様性が増すにつれて一貫して恩恵を受けるなど、高いスケーラビリティも示す。17のfMRIデータセットからなる20K超の被験者を対象とした大規模実験により、MV-BrainFMは、単一アトラス設定およびマルチアトラス設定の両方において、14の既存の脳ネットワーク基盤モデルおよびタスク固有ベースラインを一貫して上回ることが示される。