広告

オープンセットのテストストリームにおける、多数から学習し未知に適応すること

arXiv cs.LG / 2026/4/2

💬 オピニオンSignals & Early TrendsIdeas & Deep AnalysisModels & Research

要点

  • 本論文は、LLMが制御された環境ではうまく一般化する一方で、実運用ではタスクが進化し連続的な分布シフトが起こるために失敗しやすいことを論じ、既存のテスト時適応(TTA)手法の不足点を指摘している。
  • 構造化された目的関数と生物学的な着想に基づき、有用なソース知識を保持しながら低ランク・アダプタを更新する、パラメータ効率の高い適応手法 Synapse Consolidation(SyCo)を提案する。
  • SyCoは、Rac1を用いて可塑性をソースにとって重要度が低い尾部の勾配サブスペースに制限し、素早い専門化を可能にする。また、MAPKと階層型コントローラによりノイズを低減し、非定常なストリーム上で信頼できる適応を統合する。
  • 実運用をよりよく反映するために、複数のラベル付きソースタスクを用意し、既知タスクと未知タスクを混在させた、オープンでラベルなしの非定常なテストストリームに対して適応を行う「Multi-source Open-set Adaptation(MOA)」設定を導入する。
  • MOA設定における18のNLPデータセットでの実験により、SyCoは強力なベースラインを上回り、未知タスクへの適応で78.31%、未知データのシフトで85.37%を達成することが示される。

要旨: 大規模言語モデル(LLM)は、再利用可能な表現と柔軟な推論によってタスク間で一般化するものの、進化するタスクや継続的な分布シフトの下で、実運用では脆さが残ります。一般的なアプローチとしてテスト時適応(TTA)がありますが、既存手法の多くは、パラメータ空間全体にわたって手設計の教師なし目的でモデルを更新する一方で、共有元知識の保持や、適応シグナルの信頼性の確保をほとんど考慮していません。ショウジョウバエにおける記憶更新の分子シグナル伝達カスケードに着想を得て、我々は、構造化されたTTA目的(問題理解、プロセス理解、ソースドメインのガードレールにより駆動)に基づき、Rac1およびMAPK経路のもとで低ランク・アダプタを更新する、パラメータ効率の高いLLM適応手法であるシナプス統合(SyCo)を提案します。Rac1は可塑性を、ソース知識に対して重要度がより低いテール勾配サブスペースに閉じ込めることで、ソース表現を保持しつつ迅速な専門化を可能にします。MAPKは階層型コントローラを用いてノイズの多い更新を抑制し、非定常なストリームのもとで有用な適応を統合します。複数のソースと、継続的に出現するタスクを伴う現実の運用をモデル化するために、複数ソースのオープンセット適応(MOA)設定を導入します。この設定では、モデルを複数のラベル付きソース・タスクで学習したのち、見えているタスクと見えていないタスクが、ラベル空間および意図空間に部分的な重なりをもって混在する、オープンかつ非定常なラベルなしテスト・ストリームで適応させます。18のNLPデータセットとMOA設定において、SyCoは強力なベースラインを一貫して上回り、未知タスク適応で78.31%、未知データシフトで85.37%を達成します。

広告