要旨:脳波(EEG)基盤モデルは、一般化可能な表現を学習する可能性を示してきたが、チャンネルの不均質性、たとえばチャンネル構成の変更や順序の変化などには依然として敏感である。私たちは、チャネル対応型のマルチモーダル EEG-テキスト整列対照型言語-画像前学習 CAMEL-CLIP を提案する。異種のチャネル構成に対して堅牢で、さまざまな下流タスクに広く適用可能な、対照的な EEG-テキストのマルチモーダル基盤モデルである。 CAMEL-CLIP は以下の3つの重要な要素を導入する:(1) チャネル属性ベースの位置エンコーディングで、意味情報を用いてチャネルを識別する;(2) 動的チャネル射影で、各チャネルを独立に射影し、特徴圧縮を行わずに可変長の埋め込みを生成する;(3) 二重レベルの対照学習で、チャネルレベルとサンプルレベルの対照学習を同時に行い、チャネル固有の特徴とグローバル信号の特徴の両方を捉える。実験結果は、CAMEL-CLIP が線形プロービングの下で最先端の性能を達成し、全ファインチューニングに依存する既存の基盤モデルを上回ることを示している。
CAMEL-CLIP: 汎用性の高い脳基盤モデルのための、チャネル対応型マルチモーダルEEG-テキストアライメント
arXiv cs.LG / 2026/3/17
📰 ニュースIdeas & Deep AnalysisModels & Research
要点
- CAMEL-CLIPは、異種混在するEEGチャンネル構成に頑健な、チャネル対応のマルチモーダルEEG-テキスト整合モデルを提案します。
- 本モデルは、3つの主要コンポーネントを採用します:チャネル属性に基づく位置エンコーディング、動的チャネル射影、そして二重レベルの対比学習(チャネルレベルとサンプルレベル)。
- 実験結果は、リニアプロービング下で最先端の性能を示し、フルファインチューニングに依存する既存のファウンデーションモデルよりも優れた性能を示します。
- このアプローチは、さまざまな下流のEEGタスクおよびチャネル設定に跨る、より一般化可能な脳基盤モデルを実現することを目指します。




