LiME:効率的なマルチモーダル多タスク学習のための軽量Mixture of Experts
arXiv cs.LG / 2026/4/6
📰 ニュースSignals & Early TrendsIdeas & Deep AnalysisModels & Research
要点
- LiMEは、MoE-PEFTの課題である「専門家(expert)ごとのアダプタ複製による学習可能パラメータの線形増加」を、共有PEFTモジュールの軽量な出力モジュレーションで解決する手法として提案されています。
- LiMEはルータ用の学習パラメータを不要にする「ゼロパラメータ・ルーティング」を導入し、既存の凍結表現や適応済み表現を活用して層ごとのrouterパラメータ学習を回避します。
- 理論的には、専門家数を増やすほどタスク関連情報を保持しやすくなることと、モジュレーションがexpert固有のPEFTを有界誤差で近似できることを示しています。
- MMT-47(テキスト/画像/動画の47タスク)で、LiMEは既存MoE-PEFT比で最大4倍少ない学習可能パラメータと最大29%高速な学習を達成しつつ、競争的または優越する性能を報告しています。



