JumpLoRA:大規模言語モデルにおける継続学習のためのスパース・アダプタ
arXiv cs.LG / 2026/4/20
📰 ニュースIdeas & Deep AnalysisModels & Research
要点
- 本論文では、壊滅的忘却を抑えるために、LoRAブロックに対してスパース性を適応的に導入する大規模言語モデル向け継続学習フレームワーク「JumpLoRA」を提案しています。
- JumpReLUによるゲーティングを用いて動的なパラメータ分離を実現し、連続的なタスク学習におけるタスク間干渉の抑制を目指しています。
- JumpLoRAは既存のLoRAベースの継続学習手法と高い互換性を持つ、モジュール性の高いアプローチとして位置づけられています。
- 実験ではIncLoRAに対して大幅な性能向上が示され、さらに最先端の継続学習手法であるELLAを上回ることが報告されています。



