要旨: データと人工ニューラルネットワークのスケーリングはAIを変革し、言語と視覚におけるブレークスルーを導いてきました。脳活動のモデリングにも同様の原理が当てはまるかどうかは、依然として不明です。ここでは、323セッションにわたって73匹のマウスの視覚皮質から得られた310万個のニューロンからなるデータセットを活用しました。自然な動画、画像、パラメトリック刺激の記録に加え、行動に関連するデータを含め、合計1500億以上のニューラルトークンを記録しています。私たちは、テスト時に3つのレジームを柔軟に切り替え可能な、多モーダル・多タスクのモデルを訓練しました。具体的には、ニューラル予測、行動のデコーディング、ニューラル・フォーキャスティング、あるいはこれらの任意の組み合わせです。OmniMouseは最先端の性能を達成し、ほぼすべての評価レジームにおいて、専門に特化したベースラインを上回ります。性能はより多くのデータによって確実にスケールする一方で、モデルサイズを増やすことによる伸びは頭打ちになります。これは標準的なAIスケーリングの物語を反転させます。言語やコンピュータビジョンでは、大規模データがパラメータ・スケーリングの進展を主に駆動するのに対し、脳モデリングでは――マウスの視覚皮質という比較的単純なシステムでさえ――巨大な記録があるにもかかわらず、モデルはデータ不足に制約されています。系統的なスケーリングの観測は、ニューラル・モデリングにおける相転移の可能性を示唆します。すなわち、より大きく、より豊富なデータセットが、巨大言語モデルに見られる創発的性質に並行して、質的に新しい能力を解放し得るということです。コードは https://github.com/enigma-brain/omnimouse で利用可能です。
OmniMouse:1500億の神経トークン上でのマルチモーダル・マルチタスク脳モデルのスケーリング特性
arXiv cs.AI / 2026/4/22
💬 オピニオンIdeas & Deep AnalysisModels & Research
要点
- OmniMouseの研究は、3.1Mのニューロン(73匹のマウス、323セッション)からなる大規模な神経データセット(1500億超の神経トークン)を用い、刺激と行動の記録に基づくマルチモーダル・マルチタスクの「脳モデル」を学習します。
- モデルはテスト時に3つの課題(神経予測、行動デコーディング、神経フォーキャスト)を状況に応じて柔軟に実行でき、単独または組み合わせても対応可能です。
- OmniMouseは状態-of-the-artの性能を達成し、これらの神経モデリング課題のほぼすべての評価領域で専門的なベースラインを上回ります。
- 著者らは、性能はより多くのデータで着実に向上する一方、モデル規模を大きくしても伸びが頭打ちになることを見出し、脳モデリングは大規模記録があってもデータ制約になり得ると示唆しています。
- 観測されたスケーリング挙動は、神経モデリングにおける相転移(より豊富で大規模なデータによって、質的に新しい能力が開ける可能性)を示しており、大規模言語モデルで見られる創発的性質と並行するかもしれないと提案しています。