要旨: フェデレーテッド・スプリット・ラーニングは、古典的なフェデレーテッド・ラーニングにおけるクライアントの計算資源制約に対処しつつ、データ所有者間で分散されたモデル学習に対してデータのプライバシーを保証するための効率的なアプローチとして同定されてきました。しかし、そのような学習戦略が大規模言語モデル(LLM)の微調整に適用されると、いくつかの重大な課題に直面します。これらの課題には、データとデバイスの不均一性の問題に対処するために、異なるクライアント間で切断層(cutlayer)を適応的に設定することが含まれ、これはシステム性能に大きく影響します。さらに、微調整手順中の通信オーバーヘッドを効率的に削減することも別の課題です。これらの課題に取り組もうとする研究はこれまで存在しません。
このギャップを埋めるために、我々は LLM の微調整のための適応的フェデレーテッド・スプリット・ラーニングシステム SplitTF を提案します。SplitFT は、異なるクライアントが自身の計算資源と学習済みモデルの性能に応じて異なる切断層を設定できるようにします。また、通信オーバーヘッドを削減するために、切断層における LoRA のランクを減らすことも提案します。提案するスプリット型フェデレーテッド学習システムにおいて、現実世界のアプリケーションにおける不均一データをシミュレートすることに加えて、学習データを異なるクライアントに分割するための長さに基づくディリクレ(Dirichlet)アプローチも提案します。広範な実験結果により、提案手法が、様々な人気ベンチマークに基づく微調整の時間効率とモデル性能の点で、最先端のアプローチを上回ることが示されています。
SplitFT:LLMファインチューニングのための適応的フェデレーテッド・スプリット学習システム
arXiv cs.LG / 2026/4/30
💬 オピニオンIdeas & Deep AnalysisModels & Research
要点
- SplitFTは、クライアントの計算能力やデータの不均一性がある状況でも、プライバシーを保ったLLMのファインチューニングを可能にすることを目的とした適応的フェデレーテッド・スプリット学習フレームワークを提案しています。
- 本システムは、LLM向けに重要となる課題として「カット層(cut layer)」を各クライアントが自分の資源と学習済みモデルの性能に応じて選べるようにし、システム性能への影響を抑えます。
- SplitFTは、ファインチューニング中にカット層でのLoRAランクを下げることで、通信オーバーヘッドを削減します。
- さらに、学習データをクライアント間で分割するために長さベースのDirichlet手法を導入し、複数の代表的ベンチマークで実験的に検証しています。
- 実験結果では、SplitFTが既存の最先端手法よりも、ファインチューニング時間の効率とモデル性能の両面で優れていることが示されています。



