Meta、TRIBE v2をリリース:動画・音声・テキスト刺激にまたがってfMRI応答を予測する脳エンコーディングモデル

MarkTechPost / 2026/3/27

📰 ニュースSignals & Early TrendsIdeas & Deep AnalysisModels & Research

要点

  • Metaが新たにリリースしたTRIBE v2は、複数の刺激モダリティにわたるfMRI応答の予測を統一的に扱うことを目指す脳エンコーディングモデルとして位置付けられており、別々の狭い領域モデルに依存しないことを意図しています。
  • この研究は、断片化された「分割して征服する(divide and conquer)」アプローチに典型的な神経科学上の制約に対処し、刺激(動画・音声・テキスト)から脳活動へのより一般的な対応関係を学習することでその限界を乗り越えようとしています。
  • モダリティをまたぐfMRI予測を示すことで、TRIBE v2は、複雑な現実世界の入力と神経表現を結びつけるための統一的な枠組みへの転換を示唆しています。
  • 今回のリリースは、クロスパラダイムな神経科学モデリングにおける段階的な前進として提示されており、実験設定や研究間でより首尾一貫した比較を可能にする可能性があります。

神経科学は長い間、「分割統治」の分野でした。研究者は通常、特定の認知機能を、運動ならV5領野、顔なら紡錘回(ふんすいかい)といったように、孤立した脳領域へとマッピングします。これは、狭い実験パラダイムに合わせて調整されたモデルを用いることで実現されています。こうしたアプローチは深い洞察をもたらしてきた一方で、その結果として得られる景観は分断されており、[…]

この記事 Meta Releases TRIBE v2: A Brain Encoding Model That Predicts fMRI Responses Across Video, Audio, and Text Stimuli は、最初に MarkTechPost に掲載されました。