Abstract
脳—コンピュータ・インターフェース(BCI)は、脳と外部デバイス間の直接的な通信を可能にし、運動機能障害を持つ個人に対して重要な支援を提供します。しかし、脳波(EEG)から運動イメージ(MI)を正確に復号することは、ノイズやセッション間のばらつきにより、依然として困難です。本研究では、EEGNetアーキテクチャに基づく新しい深層学習モデルであるEEG-MFTNetを提案します。これは、多尺度の時間畳み込みとTransformerエンコーダのストリームで拡張されています。これらの構成要素により、EEG信号における短期および長期の時間的依存関係の双方を捉えることを目的としています。本モデルは、被験者依存のクロスセッション設定を用いてSHUデータセットで評価され、EEGNetおよびその最近の派生モデルを含むベースラインモデルを上回ります。EEG-MFTNetは、計算量と推論遅延を低く抑えつつ、平均分類精度58.9%を達成します。これらの結果は、リアルタイムBCI応用における本モデルの可能性を示すとともに、MI復号の改善におけるアーキテクチャ上の革新の重要性を強調しています。本研究は、より頑健で適応的なBCIシステムの開発に貢献し、支援技術や神経リハビリテーションへの応用に示唆を与えます。