指示条件付きイン・コンテキスト時系列タスクのための基盤モデル

arXiv cs.LG / 2026/3/25

💬 オピニオンIdeas & Deep AnalysisModels & Research

要点

  • 本論文は、タスク固有の微調整ではなくデモンストレーションを用いて、指示条件付きイン・コンテキスト学習を支援する時系列の基盤モデルを提案する。
  • これは、エンコーダ・デコーダ(量子回帰T5)を構築し、ターゲット系列、共変量、コンテキスト、タスク固有の将来情報を明示的に区別する構造化トークン化を用いる。
  • 階層型Transformerアーキテクチャにより、デコード時に各例ごとのエンコードと例間のクロスアテンションを行い、デモンストレーション・ペアに基づく予測を条件付けする。
  • 本モデルは、大規模な実データおよび合成データを用いて、教師ありの予測に加え、欠損補完、再構成、分類、異常検知、ソース・デミキシングといった複数の自己教師ありタスクで学習し、タスク間の写像を獲得する。
  • データセット、頻度、予測ホライズンをまたいだ実験により、点予測および確率的予測のベンチマークで、強力な時系列基盤モデルのベースラインよりも性能が向上する一方、分類および異常検知では競争力を維持していることが示される。

Abstract

イン・コンテキスト学習(ICL)では、パラメータを更新するのではなく、例を条件として与えることで、推論時にモデルが適応できる。既存の時系列基盤モデルは、暗黙的な位置コンテキスト、リトリーバル、またはタスク固有の目的関数を用いることが多いが、明示的に指示に条件付けされたデモンストレーションを用いることは稀である。本稿では、量子回帰T5のエンコーダ・デコーダに基づく、指示条件付きイン・コンテキスト時系列タスクのための基盤モデルを提案する。歴史的な例とクエリは、対象系列、共変量、コンテキスト、およびタスク固有の将来情報を示す構造化されたトークン化スキームにより符号化する。例ごとの符号化、例レベルのフュージョン、およびデモンストレーション対に基づく交差例注意を用いる階層的Transformerにより、タスク固有の微調整を行わずに予測や関連タスクを可能にする。大規模な実データおよび合成の時系列を用いて、教師あり予測に加え、補完、再構成、分類、異常検知、ソース・デミキシングを含む自己教師ありタスクで学習する。このマルチタスク学習はタスク写像の分布を学習し、推論時に局所構造への適応を改善する。多様なデータセット、周波数、予測ホライズンにおいて、本手法は点予測および確率予測のベンチマーク(fev-bench や GIFT-Eval など)で強力な基盤ベースラインを上回りつつ、分類および異常検知でも競争力を維持している。