"人間の脳が私たちの周りの世界をどのように処理するのかを理解することは、神経科学における最大の未解決課題の1つです。ここでのブレークスルーは、何億人もの人々に影響を及ぼす神経学的な疾患をどのように理解し、治療するかを変える可能性があり、さらに神経科学的な原理に基づいてその開発を直接導くことで、AIシステムの改善にもつながります。
本日、TRIBE v2を発表します。これは、視覚・聴覚・言語に対する人間の脳の反応を表す、当社初のAIモデルです。私たちのAlgonauts 2025の受賞モデルを基盤としており、このモデルは4人の個人による低解像度のfMRI記録で学習されました。さらに、画像、ポッドキャスト、動画、テキストなど多種多様なメディアを提示された、700人を超える健康なボランティアからなる大規模データセットを活用します。TRIBE v2は高解像度のfMRI脳活動を確実に予測し、新しい被験者、言語、課題に対してゼロショット予測を可能にするとともに、標準的なモデリング手法を一貫して上回ります。人間の脳のデジタルモデルを作ることで、研究者は、すべての実験に人間の被験者を必要とすることなく、その根底にある機能についての仮説を迅速に検証できます。
神経科学の発見のスピードを加速し、臨床実践のための新たな道を切り開くために、CC BY-NCライセンスのもとで研究論文とモデルの重み、コードを公開します。また、デモウェブサイト上でTRIBE v2を誰でも探索できるようにします。この取り組みを共有することで、より良い未来のために、科学的および臨床的なブレークスルーを解き放つ神経科学研究の加速に貢献できればと考えています。"
論文: "シリコ内神経科学のための、視覚・聴覚・言語の基盤モデル"
モデル / コード: facebookresearch/tribev2(github)
[link] [comments]


