多タスク制御と適応のためのニューラルオペレータ

arXiv cs.LG / 2026/4/7

💬 オピニオンSignals & Early TrendsIdeas & Deep AnalysisModels & Research

要点

  • 本論文は、多タスクの最適制御に対するニューラルオペレータ手法を研究し、タスク記述(例:ダイナミクス/コスト関数)から最適なフィードバック制御則への写像を学習する。
  • 誘導対象の順序に不変なニューラルオペレータ構造を提案し、行動クローン(behavioral cloning)で1つのオペレータを学習することで、解オペレータを正確に近似できること、さらに未見および分布外タスクへも汎化できることを示す。
  • パラメトリックな最適制御環境およびロコモーションのベンチマークにまたがる実験により、タスクに対して観測量が変化しても頑健であることを示す。
  • 分岐(branch)-幹(trunk)の構造を活用することで効率的なタスク適応を可能にし、軽量な更新から完全な微調整までの幅広い戦略を提供する。
  • さらに、初期化を最適化することで少数ショット適応を行うメタ学習済みオペレータのバリアントを導入し、データが限られた設定において人気のメタラーニング基準手法を上回ることを示す。

Abstract

ニューラル演算子(neural operator)手法は、無限次元の関数空間間の写像を学習するための強力なツールとして登場してきましたが、その最適制御における可能性はほとんど未踏のままです。本研究では、タスク記述(例:コスト関数やダイナミクス関数)から、最適制御則(例:フィードバック方策)へのマッピングとして解が与えられるマルチタスク制御問題に注目します。これらの解作用素を、順列不変(permutation-invariant)なニューラル演算子アーキテクチャにより近似します。パラメトリックな最適制御環境の幅広い範囲と、移動(ロコモーション)のベンチマークにおいて、行動模倣(behavioral cloning)で学習した単一の演算子が、解作用素を正確に近似し、未見のタスク、分布外(out-of-distribution)設定、ならびにタスク観測の量が異なる状況に対しても一般化することを示します。さらに、このニューラル演算子アーキテクチャのブランチ・トランク構造が、新しいタスクへの効率的かつ柔軟な適応を可能にすることを示します。軽量な更新から全ネットワークの微調整までの構造化された適応戦略を開発し、異なるデータおよび計算条件のもとで高い性能を達成します。最後に、少数ショット適応(few-shot adaptation)向けに初期化を最適化する、メタ学習済みの演算子バリアントを導入します。これらの手法により、限られたデータで迅速にタスク適応が可能となり、人気のメタラーニングのベースラインを一貫して上回ります。以上の結果から、ニューラル演算子はマルチタスク制御と適応のための統一的かつ効率的な枠組みを提供することが示されます。