LoRAのためのポスト最適化・適応的ランク割当(PARA)
arXiv cs.AI / 2026/5/1
📰 ニュースTools & Practical UsageModels & Research
要点
- 本論文は、LoRAで一律ランクを使う代わりに、層ごとに適応的にランクを割り当てるデータ不要の圧縮手法PARAを提案しています。
- PARAは特異値分解(SVD)と、全層にまたがる特異値へのグローバル閾値を用いて、各層のスペクトル上の重要度に基づいてLoRAのランクをプルーニングします。
- PARAは微調整の後に適用するポストホック手法であるため、学習時の改変や、動的アーキテクチャに伴い得る不安定さを回避できます。
- 複数の画像・言語ベンチマークで、PARAによりLoRAのパラメータを75〜90%削減しつつ、元の圧縮前LoRAの予測性能を大きく損なわないことを示しています。
- 著者は採択後にコードを公開し、既存のLoRA微調整パイプラインへの統合の容易さを目指しています。




