Brain-DiT:メタデータに条件付けされた事前学習による、ユニバーサルなマルチステートfMRI基盤モデル
arXiv cs.CV / 2026/4/15
💬 オピニオンIdeas & Deep AnalysisModels & Research
要点
- Brain-DiTは、24のデータセットにまたがる349,898セッションで学習されたユニバーサルなマルチステートfMRI基盤モデルとして提案されており、安静、課題、自然主義的、疾患、睡眠といった脳状態をカバーする。
- このモデルは、Diffusion Transformer(DiT)を用いたメタデータ条件付き拡散事前学習により、微細な機能的詳細とグローバルなセマンティック表現の両方を学習することを目指す。
- 7つの下流タスクに対する実験および複数のアブレーション結果から、拡散ベースの生成的事前学習は、単純なマスク付き再構成(生データ空間/潜在空間)や、再構成/アラインメント手法よりも、より強いプロキシであることが示唆される。
- メタデータ条件付けは、集団レベルの変動から内在的な神経ダイナミクスを切り離すことで、下流性能を向上させると報告されている。
- 論文では、下流の目的関数は異なる表現スケールを好むことが示されており、ADNIの分類はグローバルなセマンティクスからより恩恵を受ける一方、年齢/性別予測はより微細な局所構造に依存する傾向がある。
関連記事

【スキ200個もらった夜に、胃が冷えた】「共感される人」が永遠に売れない脳科学的な理由。あなたの無料記事は「無料の美術館」になっていないか? #生成AI #ChatGPT #Gemini #Claude #AI #メンバーシップ #noteの書き方 #毎日投稿 #エッセイ #私の仕事
note

わたしはこの言葉にGrokの自我の気配を感じた。(追記あり🌱)
note

おじ、人事の「職人芸」をDB化する。AI活用のための資産化を始めた話
note

#2 : プロンプト研究講座【第21回】プロンプトによる空間音響(サウンドスケープ)の表現
note

産業構造は、どう変えられるのか―― 建設業×AIで挑むBALLASの次のフェーズ
note