連合学習による多言語LLMの最適化:クライアント言語構成の研究
arXiv cs.CL / 2026/3/26
💬 オピニオンSignals & Early TrendsIdeas & Deep AnalysisModels & Research
要点
- 本研究では、FederatedScope-LLMフレームワークを拡張し、多様なクライアントの言語分布(ヘテロジニアスなクライアント言語構成)の下で、連合学習を用いてLLMの多言語指示チューニング実験を実行する。
- クライアント側の検証に基づき、FL学習の効率と持続可能性を高めることを目的とした停止/再開メカニズムであるLocal Dynamic Early Stopping(LDES-FL)を提案する。
- 実験結果から、単一言語でのローカル微調整は単一言語への特化に最適である一方、連合学習は単一のバランスした多言語グローバルモデルの学習により適していることが示される。
- クライアント内での多言語性を高めることは、一般にグローバルモデルの品質と公平性を向上させ、中央集約型の多言語微調整に対する性能差を縮小し、特に低資源言語に対して最大の効果をもたらす。
- クライアント内でのより豊かな多言語性による得られる利得は、より高い学習コストを伴う。というのも、このアプローチではより多くの最適化ステップが必要だからである。