広告

低ランクのアモート化ベイズ的メタラーニングによる,大規模言語モデルのためのスケール可能なメタラーニング

arXiv stat.ML / 2026/4/3

💬 オピニオンIdeas & Deep AnalysisModels & Research

要点

  • 本論文は、LoRAに対するアモート化ベイズ的メタラーニング(ABMLL)を提案し、低ランクの適応を用いて複数のデータセットにわたって大規模言語モデルを微調整し、少数ショット設定におけるデータセット間の汎化性能を向上させる。
  • ABMLLは、LoRAパラメータ化におけるローカル変数とグローバル変数の役割を再定義し、復元精度と、タスク固有パラメータがグローバルパラメータにどれだけ忠実であるかとの間のトレードオフを行う新たなハイパーパラメータを導入する。
  • Llama3-8BやQwen2-7Bのような大規模モデルでの実験により、ABMLLがCrossFitおよびUnified-QAにおいて既存手法よりも優れており、精度と期待較正誤差の両方が改善されることを示す。
  • 著者らはさらに、メタラーニングをインコンテキスト学習と組み合わせることで、同じベンチマークだけでなく、法務および化学の応用タスクにおいても性能を一層向上できることを実証している。

概要: 低ランク適応(LoRA)による大規模言語モデル(LLM)のファインチューニングは、特定のデータセットからの情報を取り込むための費用対効果の高い方法です。しかし、問題によっては、複数のデータセットからの情報を取り込む必要があり(少数ショット学習のように)、データセット間の汎化が制限され、その結果として学習コストが増大します。そのため、この設定では通常、インコンテキスト学習のような別のアプローチが用いられます。この課題に対処するため、私たちは、複数の分布にわたってLLMの重みを適応させるための効率的な方法、LoRAのためのアモータイズド・ベイズ的メタ学習(ABMLL)を提案します。本手法は、小規模モデル向けのアモータイズド・ベイズ的メタ学習に基づき、LoRAにおいて局所変数と大域変数が定義される場所を再構成すること、ならびに再構成精度と、タスク固有パラメータが大域パラメータにどれほど忠実であるかのバランスを取るための新しいハイパーパラメータを導入することで、LLMに適用します。ABMLLはデータセット間で効果的な汎化を可能にし、Llama3-8BやQwen2-7Bのような大規模モデルにもスケールします。CrossFitおよびUnified-QAデータセットにおいて、精度と期待較正誤差の両方の観点で、既存手法を上回ります。さらに、メタ学習をインコンテキスト学習と組み合わせることもでき、その結果として、これら2つのデータセットに加えて、法務および化学の応用分野でもさらなる改善が得られることを示します。

広告