FedProxy:プロキシSLMと異種データ対応の融合によるLLMの連合微調整

arXiv cs.LG / 2026/4/22

📰 ニュースIdeas & Deep AnalysisModels & Research

要点

  • FedProxyは、連合学習によるLLMの微調整における「トリレンマ」(LLMのIP保護、クライアントのプライバシー確保、異種データでの性能低下の抑制)を同時に解決することを目指しています。
  • 研究では、IPを保ちながら微調整する従来手法のOffsite-Tuning(OT)が弱いアダプタに依存するため、中央集権型学習に比べて性能が伸び悩む本質的なボトルネックがあると示しています。
  • FedProxyは、軽量アダプタの代わりに、プロプライエタリなLLMから圧縮した統一型のProxy Small Language Model(SLM)を用い、協調的な微調整の高忠実度サロゲートとして機能させます。
  • 提案は3段階の設計で構成され、(i)サーバ主導の圧縮による効率的表現、(ii)異種データに対応するための干渉緩和型アグリゲーション、(iii)学習不要の「プラグイン」機構による知識のLLMへの融合を組み合わせています。
  • 実験ではFedProxyがOTを大きく上回り、中央集権型の微調整性能に近づくことが示され、安全性と高性能を両立する連合LLM適応の新たなベンチマークを提示しています。

Abstract

大規模言語モデル(LLM)のフェデレーテッド微調整は、次の三重苦によって妨げられています。すなわち、LLMの知的財産(IP)を保護すること、クライアントのプライバシーを確実にすること、そして不均一なデータに対する性能低下を緩和することです。Offsite-Tuning(OT)のような既存手法は、クライアントが軽量なアダプタのみを学習することでLLMのIPを安全にしますが、私たちの分析によれば、それらは根本的な性能ボトルネックに悩まされており、集中型学習との間に大きなギャップが残っています。このギャップを埋めるために、私たちは新しいフェデレーテッド適応フレームワークであるFedProxyを提案します。FedProxyは、弱いアダプタを、専有のLLMから圧縮された統一的で強力なProxy Small Language Model(SLM)で置き換え、共同の微調整における高忠実度な代理モデルとして機能させます。私たちのフレームワークは、三段階のアーキテクチャによって、この三重苦を体系的に解決します。 (i) サーバ主導の圧縮による効率的な表現:資源にやさしいプロキシを作成する;(ii) データの不均一性に対処するための、干渉を抑える集約戦略による頑健な最適化;(iii) 学習した知識をLLMへ統合するための、学習不要の「プラグイン」機構による容易な融合。実験の結果、FedProxyはOT手法を大きく上回り、集中型性能に近いアプローチに到達することが示されました。さらに、安全で高性能なフェデレーテッドLLM適応に関する新たなベンチマークを確立します。