ShadowPEFT:シャドウ・ネットワークによるパラメータ効率の良い微調整
arXiv cs.CL / 2026/4/22
📰 ニュースDeveloper Stack & InfrastructureIdeas & Deep AnalysisModels & Research
要点
- ShadowPEFTは、LLMのための新しいパラメータ効率の良い微調整手法で、学習済みバックボーンを凍結し、LoRAのような分散した低ランクの重み摂動ではなく、中央集権化された「シャドウ」モジュールによる表現の層(レイヤ)空間での改良を行います。
- ShadowPEFTは各トランスフォーマ層で並列のシャドウ状態を維持し、これを繰り返し発展させることで、より豊かな隠れ表現を段階的に構築します。
- シャドウ・モジュールはバックボーンから切り離されているため、深さ方向にわたって再利用でき、独立に事前学習も可能で、さらにエッジ計算向けに「切り離し(detached)モード」での展開も選択できます。
- 生成・理解ベンチマークの実験では、ShadowPEFTが同等の学習可能パラメータ数の条件下でLoRAおよびDoRAに匹敵、または上回る性能を示し、事前学習、データセット間転移、スケーリング、推論レイテンシ、システム評価に関する追加分析でも有望さが示されています。




