連合学習による多言語LLMの最適化:クライアント言語構成の研究

arXiv cs.CL / 2026/3/26

💬 オピニオンSignals & Early TrendsIdeas & Deep AnalysisModels & Research

要点

  • 本研究では、FederatedScope-LLMフレームワークを拡張し、多様なクライアントの言語分布(ヘテロジニアスなクライアント言語構成)の下で、連合学習を用いてLLMの多言語指示チューニング実験を実行する。
  • クライアント側の検証に基づき、FL学習の効率と持続可能性を高めることを目的とした停止/再開メカニズムであるLocal Dynamic Early Stopping(LDES-FL)を提案する。
  • 実験結果から、単一言語でのローカル微調整は単一言語への特化に最適である一方、連合学習は単一のバランスした多言語グローバルモデルの学習により適していることが示される。
  • クライアント内での多言語性を高めることは、一般にグローバルモデルの品質と公平性を向上させ、中央集約型の多言語微調整に対する性能差を縮小し、特に低資源言語に対して最大の効果をもたらす。
  • クライアント内でのより豊かな多言語性による得られる利得は、より高い学習コストを伴う。というのも、このアプローチではより多くの最適化ステップが必要だからである。

Abstract

多言語環境における大規模言語モデル(LLM)の連合学習(FL)は、クライアント間での言語分布の異質性や、言語資源の利用可能性における格差に起因して、重大な課題を抱えています。これらの課題に対処するため、我々は FederatedScope-LLM フレームワークを拡張し、LLM による多言語の指示チューニング実験をサポートしました。また、クライアント固有の新しい早期終了メカニズムである Local Dynamic Early Stopping(LDES-FL)を提案しました。これは、クライアント側の検証性能に基づいてクライアントがローカルトレーニングを停止・再開できる仕組みであり、学習の効率性と持続可能性を高めます。一連の実験を通じて、クライアントの言語構成――完全に単一言語のクライアントから、ますます多言語化されたクライアントまで――が、多言語品質、公平性、そして学習コストにどのように影響するかを調査しました。単一言語のローカル・ファインチューニングは、単一言語への専門特化に対して最も効果的である一方で、連合学習によるトレーニングは、単一のバランスの取れた多言語モデルを学習するのにより適しています。FLでは、クライアント内の多言語性を高めるほど、より強力でより公平なグローバルモデルが得られ、集中型の多言語ファインチューニングとの差が縮まり、最終的に低資源言語に対して最大の改善がもたらされます。ただし、その代償として最適化ステップ数が増えるというコストがあります。総合すると、我々の結果は、多言語FLにおける主要な設計変数としてクライアントの言語構成を特定し、それが性能、公平性、効率性をどのように形作るかを示しています