LiME: Lightweight Mixture of Experts for Efficient Multimodal Multi-task Learning
arXiv cs.LG / 4/6/2026
📰 NewsSignals & Early TrendsIdeas & Deep AnalysisModels & Research
Key Points
- LiMEは、MoE-PEFTの課題である「専門家(expert)ごとのアダプタ複製による学習可能パラメータの線形増加」を、共有PEFTモジュールの軽量な出力モジュレーションで解決する手法として提案されています。
- LiMEはルータ用の学習パラメータを不要にする「ゼロパラメータ・ルーティング」を導入し、既存の凍結表現や適応済み表現を活用して層ごとのrouterパラメータ学習を回避します。
- 理論的には、専門家数を増やすほどタスク関連情報を保持しやすくなることと、モジュレーションがexpert固有のPEFTを有界誤差で近似できることを示しています。
- MMT-47(テキスト/画像/動画の47タスク)で、LiMEは既存MoE-PEFT比で最大4倍少ない学習可能パラメータと最大29%高速な学習を達成しつつ、競争的または優越する性能を報告しています。
Related Articles

Black Hat Asia
AI Business

How Bash Command Safety Analysis Works in AI Systems
Dev.to

How I Built an AI Agent That Earns USDC While I Sleep — A Complete Guide
Dev.to

How to Get Better Output from AI Tools (Without Burning Time and Tokens)
Dev.to

How I Added LangChain4j Without Letting It Take Over My Spring Boot App
Dev.to