AI Navigate

データローカルな自律的LLM主導のニューラルアーキテクチャ探索による多クラス・マルチモーダル時系列分類

arXiv cs.LG / 2026/3/18

📰 ニュースDeveloper Stack & InfrastructureIdeas & Deep AnalysisModels & Research

要点

  • データローカルで動作し、LLM主導のNASフレームワークを紹介します。すべてのトレーニングと評価をオンプレミスで実行し、生データが施設を離れることを防ぎつつ、試行レベルのサマリーを介して探索を遠隔でガイドします。
  • クラスごとに1対レストの二値専門家を配置し、モダリティ別の前処理と軽量なフュージョンMLPを組み合わせた、マルチクラス・マルチモーダルな設定を採用しています。これにより、アーキテクチャと前処理手順の共同探索が可能になります。
  • UEA30 および SleepEDFx の2つのデータセットで評価した結果、アーキテクチャ探索を無人化することにより手動介入を削減しつつ、公開範囲内の性能を達成できることを示しています。
  • 重要な点として、コントローラは試行レベルの記述子、指標、学習曲線の統計、失敗ログのみを観測し、生データのサンプルや intermediate feature representationsには一切アクセスしません。これにより、医療などデータプライバシー制約に対応します。

要旨: 機械学習を機微な時系列データに適用することは、多くの場合、反復ループによってボトルネックになる。性能は前処理とアーキテクチャに強く依存する一方、トレーニングはデータローカル制約が厳しいオンプレミス環境で実行される必要がある。これは医療やその他のプライバシー制約のある領域(例: 病院が患者の EEG データでディープラーニングモデルを開発する場合)でよくある問題である。このボトルネックは、センサーモダリティを個別に前処理してから結合する必要があるマルチモーダル融合において特に困難である。LLM主導のニューラルアーキテクチャ探索(NAS)はこの探索を自動化できるが、ほとんどの既存ワークフローはクラウド実行を前提とするか、曝露できないデータ由来のアーティファクトへのアクセスを前提としている。

我々はデータをローカルに保持したまま、LLM主導の探索フレームワークを提示します。候補パイプラインを遠隔で扱いながら、全ての訓練と評価を固定プロトコルの下でローカルに実行します。コントローラはパイプライン記述子、指標、学習曲線統計、失敗ログといった試行レベルの要約のみを観察し、生データサンプルや中間特徴表現には決してアクセスしません。我々のフレームワークは、クラスおよびモダリティごとに1対他クラスのバイナリ専門家、軽量な融合MLP、そして専門家アーキテクチャとモダリティ固有の前処理を共同探索することにより、マルチクラス・マルチモーダル学習を対象とします。

我々の手法を2つのレジームで評価します:UEA30(公開の多変量時系列分類データセット)とSleepEDFx睡眠段階付け(EEG、EOG、EMG などの異種臨床モダリティ)。結果は、モジュラーベースラインモデルが堅牢であることを示し、LLM主導のNASがそれをさらに改善します。特筆すべきは、我々の手法はほとんどのベンチマークデータセットにおいて公表された範囲内で性能を発揮するモデルを見つけ出す点です。両方の設定で、我々の手法は未監視のアーキテクチャ探索を可能にすることで手動介入を削減し、機微データをオンプレミスに保持します。