誤差伝播を考慮した SVD 圧縮 LLM を、追加ランクなしで回復する

Zenn / 5/6/2026

💬 OpinionIdeas & Deep AnalysisModels & Research

Key Points

  • SVD(特異値分解)でLLMを圧縮する際に生じる誤差の伝播を考慮し、性能劣化を抑える回復手法を述べている
  • 追加ランク(通常は精度改善のために増やす要素)を使わずに、圧縮後のモデルを回復できることを狙っている
  • 誤差伝播の観点から、低ランク近似の影響をどのように管理・補正するかが中心テーマになっている
  • 実装や適用の指針として、SVD圧縮と回復の考え方を整理して提示している
はじめに 前回の記事では、LLM の SVD ベース圧縮手法に圧縮誤差の層間伝播を補償する EP-SVD-LLM を提案し、圧縮直後の PPL で効果を確認しました。 一方、実用上は圧縮後にファインチューニングして精度を回復する運用が自然です。そこで本記事では、SVD-LLM / SC-SVD-LLM / EP-SVD-LLM の 3 手法で圧縮したモデルに対して post-compression fine-tuning を適用し、圧縮後の学習を経ても EP-SVD-LLM の優位性が保たれるかを検証します。 なお、本記事でいうファインチューニングは、特定の downstream t...

Continue reading this article on the original site.

Read original →