言語モデルのためのタスク中心パーソナライズド・フェデレーテッド微調整
arXiv cs.AI / 2026/4/2
💬 オピニオンIdeas & Deep AnalysisModels & Research
要点
- 本論文は、言語モデルにおけるパーソナライズド・フェデレーテッド学習の限界に取り組み、未見のタスクへの汎化や、1つのクライアント内で複数のタスク分布が干渉し合うといった頑健性の問題に焦点を当てる。
- タスク中心のパーソナライズドFL手法であるFedRouterを提案し、クライアントごとではなくタスクごとに(アダプタベースのパーソナライズを用いて)専門化したモデルを構築する。
- FedRouterは2つのクラスタリング機構を用いる。すなわち、ローカル・クラスタリングでタスクサンプルに対してアダプタを関連付け、グローバル・クラスタリングで類似したアダプタをクライアント間で照合し、タスク中心のパーソナライズド・モデルへ統合する。
- 評価時には「ルータ」が、学習したタスクのクラスタに従ってテストサンプルをルーティングし、各サンプルに最適なアダプタを選択する。
- マルチタスクデータセットでの実験により、FedRouterは顕著な改善を示す。タスク干渉下では最大6.1%の相対的改善、汎化評価では最大136%の相対的改善が得られる。