Rhamba:安静時fMRIの自己教師あり学習のための、領域を考慮したハイブリッドAttention-Mambaフレームワーク
arXiv cs.LG / 2026/5/5
📰 ニュースIdeas & Deep AnalysisModels & Research
要点
- Rhambaは、安静時fMRI向けの自己教師あり事前学習フレームワークで、解剖学的に導く領域ベースのマスキングと、ハイブリッドなAttention-Mambaによる系列モデリングを組み合わせています。
- ABIDEデータセットでの事前学習では、領域に整合したパッチ埋め込みと3種類のマスキング戦略(Any、Majority、Pure:空間特異性を段階的に高める)を用い、Mambaのみ、MambaとAttentionを交互に切り替えるAlternate、さらにハイブリッドなエンコーダ・デコーダ構成(AMとMA)など複数のアーキテクチャを比較します。
- 下流タスクとして、統合失調症と注意欠陥/多動性障害の識別(COBREおよびADHD-200)で微調整すると、再構成損失は一貫した順序(Any > Majority > Pure)で変化する一方、下流性能への影響はわずかで、データセット依存でした。
- ハイブリッド構成のうちMA(Mamba-Attention)が両データセットで平均AUROCが最も高く、Integrated Gradientsによる領域別の解釈分析では、最高性能は単一の設定ではなく「マスキング戦略×アーキテクチャ」の相互作用に依存することが示されました。
- 著者らは、Rhambaが既存の最先端手法を上回りつつ、大規模fMRI表現学習において解釈可能性・スケーラビリティ・性能のバランスを柔軟に取りやすいと主張しています。




