要旨: 別々に学習したLoRAアダプタをマージすることは、共同のマルチタスク学習の実用的な代替手段ですが、多くの場合性能を損ないます。既存の手法は通常、LoRAの更新 Delta W = BA を単一の対象として扱い、2つのLoRA行列を区別しません。本研究では、LoRAマージにおける干渉の主な原因が出力側の行列 B にあることを示します。タスクをまたいで B は、共有された少数の方向を繰り返し用いますが、A ははるかにタスク固有です。その結果、マージされたアダプタがこれらの共有方向を過度に強調し、タスク固有の情報が失われます。そこで本研究では、データ不要の手法である Pico(Pre-merge interference calibration in output-space)を提案します。これは、マージの前に B を較正し、過剰に共有されている方向をダウンサイジングしたのち、マージされた更新を再スケーリングします。Pico は、Task Arithmetic、TIES、TSV-M など既存のマージ手法に直接組み込めます。数学、コーディング、金融、医療の各領域にわたる8つの異なるベンチマークで、Pico は対応するベース手法に対して平均精度を 3.4-8.3 ポイント改善し、全体として最良の平均性能を達成します。さらに Pico により、マージされたアダプタが、全タスクデータで学習したLoRAを上回ることも可能になります。これらの結果は、2つのLoRA行列を別々に扱うときにLoRAマージがよりうまく機能することを示しています。
混雑したB空間:LoRAマージにおける共有方向のキャリブレーション
arXiv cs.CL / 2026/4/21
📰 ニュースModels & Research
要点
- この論文は、LoRAのマージにおける干渉の主因が出力側行列Bにある一方で、入力側行列Aはタスク固有性が高いことを示しています。
- 既存のマージ手法はBに含まれる共有方向を過度に強調しやすく、その結果タスク固有の情報が失われると主張しています。
- 著者らは、Pico(Pre-merge interference calibration in output-space)というデータ不要の手法を提案し、マージ前にBをキャリブレーションして「過剰に共有された方向」をダウンサンプルし、その後マージ更新をリスケールします。
- Picoは既存のLoRAマージ手法(Task Arithmetic、TIES、TSV-Mなど)にそのまま組み込め、数学・コーディング・金融・医療を含む8つのベンチマークで、対応するベース手法より平均精度を3.4〜8.3ポイント改善します。
- さらにPicoにより、マージ済みアダプタが全タスクデータで学習したLoRAを上回ることも示されており、2つのLoRA行列を別々に扱う利点が示唆されています。
関連記事

NVIDIA DGX SparkフルスタックAIハッカソンで作ったものが総合1位に—『Starfire』から『Molecules AI』へ
Dev.to

進捗を失わない:VS Codeでプロ仕様のJupyterワークフローをセットアップする(Colabのタイムアウトともおさらば!)
Dev.to

AgentOSを作る:保険請求の「AWS Lambda」を目指している理由
Dev.to

状況はここまで来た——1年で何もかも変わった:Kimi、Minimax、Qwen、Gemma、GLM
Reddit r/LocalLLaMA
Grok-2 Mini と Grok-3(mini)はどこにあるのか?
Reddit r/LocalLLaMA