Metaの新しいAIモデルは、画像・音・発話に対してあなたの脳がどのように反応するかを予測する

THE DECODER / 2026/3/28

📰 ニュースSignals & Early TrendsModels & Research

要点

  • Metaは、画像・音・発話を含むマルチモーダル入力に対する典型的な脳の反応を予測するAIモデルを開発した。
  • 評価では、このモデルが予測した賦活パターンは、個々の被験者のスキャンよりも一般的な脳の反応とより一致していた。
  • この研究は、現実世界のメディア入力から脳活動を推論できる計算モデルに向けた進展を示唆している。
  • このアプローチは、脳信号の予測精度を高め、より幅広いマルチモーダル神経科学の応用につながる一歩として、Metaの研究の位置づけを示している。

脳の活性を色分けしたAI予測が表示された、黒い2つの頭部プロファイル。グレーのモデル上に、赤〜オレンジの熱領域。

Metaは、人間の脳が画像、音、そして音声にどう反応するかを予測するAIモデルを構築しました。テストでは、特定の1人の実際のスキャンよりも、その予測のほうが典型的な脳の反応により近い結果となりました。

この記事 Metaの新しいAIモデルは、あなたの脳が画像、音、音声にどう反応するかを予測します は、The Decoder に最初に掲載されました。

広告