要旨: 機械学習を機微な時系列データに適用することは、多くの場合、反復ループによってボトルネックになる。性能は前処理とアーキテクチャに強く依存する一方、トレーニングはデータローカル制約が厳しいオンプレミス環境で実行される必要がある。これは医療やその他のプライバシー制約のある領域(例: 病院が患者の EEG データでディープラーニングモデルを開発する場合)でよくある問題である。このボトルネックは、センサーモダリティを個別に前処理してから結合する必要があるマルチモーダル融合において特に困難である。LLM主導のニューラルアーキテクチャ探索(NAS)はこの探索を自動化できるが、ほとんどの既存ワークフローはクラウド実行を前提とするか、曝露できないデータ由来のアーティファクトへのアクセスを前提としている。
我々はデータをローカルに保持したまま、LLM主導の探索フレームワークを提示します。候補パイプラインを遠隔で扱いながら、全ての訓練と評価を固定プロトコルの下でローカルに実行します。コントローラはパイプライン記述子、指標、学習曲線統計、失敗ログといった試行レベルの要約のみを観察し、生データサンプルや中間特徴表現には決してアクセスしません。我々のフレームワークは、クラスおよびモダリティごとに1対他クラスのバイナリ専門家、軽量な融合MLP、そして専門家アーキテクチャとモダリティ固有の前処理を共同探索することにより、マルチクラス・マルチモーダル学習を対象とします。
我々の手法を2つのレジームで評価します:UEA30(公開の多変量時系列分類データセット)とSleepEDFx睡眠段階付け(EEG、EOG、EMG などの異種臨床モダリティ)。結果は、モジュラーベースラインモデルが堅牢であることを示し、LLM主導のNASがそれをさらに改善します。特筆すべきは、我々の手法はほとんどのベンチマークデータセットにおいて公表された範囲内で性能を発揮するモデルを見つけ出す点です。両方の設定で、我々の手法は未監視のアーキテクチャ探索を可能にすることで手動介入を削減し、機微データをオンプレミスに保持します。
