| TL;DR:META の新しいAIは、脳スキャンよりもあなたの脳をより正確に予測できます。 概要:
素人向けの説明:TRIBE v2 は、720人のデータからなる1,000時間以上の脳イメージングデータで訓練された基盤モデルです。あなたはそれに動画、音声クリップ、またはテキストを与えると、モデルは次を予測します:
モデルを、これまで見たことのない人々で試すと、予測は実際の多くの脳スキャンよりも正確でした(脳スキャンは、心拍、呼吸、動きによって歪められます)。その後、研究者たちは古典的な神経科学の代表的な実験を、ソフトウェアの中だけで完全に再現しました。 スキャナー不要。人間の被験者不要。 モデルは、自分自身で、顔認識の中枢、言語ネットワーク、そして感情処理の領域を正しく特定しました。 私の考え:Meta がほかにも何を作っているのか見てください:
ただし、これらがすべてつながっているという証拠はありません。それでも Meta には、刺激から神経応答まで、注意の全体像がそろっている状態になっています。 論文へのリンク: https://ai.meta.com/research/publications/a-foundation-model-of-vision-audition-and-language-for-in-silico-neuroscience/GitHub へのリンク: https://github.com/facebookresearch/tribev2オープンソース化された重み: https://huggingface.co/facebook/tribev2[link] [comments] |
[Oldie-But-A-Goodie] META、「TRIBE v2」を発表:人間の神経活動のデジタルツインとして振る舞う次世代モデル
Reddit r/LocalLLaMA / 2026/4/10
📰 ニュースSignals & Early TrendsIdeas & Deep AnalysisModels & Research
要点
- MetaのTRIBE v2は、動画・音声・言語の入力から人間の脳活動を予測する三つのモダリティ(tri-modal)の基盤モデルとして提示される。
- このアプローチは、720人の被験者から得た1,000時間超のfMRIを統一データセットとして学習し、未知の刺激・課題、そしてこれまで見たことのない個人へと一般化することを目指している。
- 報告されている結果では、従来の線形エンコーディングモデルに比べて数倍の改善が示され、新しい被験者に対するより高解像度の脳応答予測がより正確になったとされる。
- TRIBE v2は、「in silico」な神経科学を可能にするものとして位置付けられており、追加のスキャンなしに、古典的な視覚および神経言語学のパラダイムでの知見を再現できるとされている。
- 解釈可能な潜在特徴を抽出することで、TRIBE v2は脳領域をまたいだ多感覚統合の微細なトポグラフィ(地形)を明らかにすると主張される。


