MiCA Learns More Knowledge Than LoRA and Full Fine-Tuning

arXiv cs.LG / 4/3/2026

💬 OpinionIdeas & Deep AnalysisModels & Research

Key Points

  • MiCA(Minor Component Adaptation)は、LLMの表現空間における「未活用なサブスペース」を狙って、学習更新を特定の潜在方向へ制約するパラメータ効率の高い微調整手法です。
  • LoRAが支配的なサブスペースを更新するのに対し、MiCAはSVDで「最小の特異値に対応する少数の(マイナー)特異ベクトル方向」を特定し、その方向に沿う更新だけを許容します。
  • 最適化された学習ハイパーパラメータ下で、知識獲得においてLoRA比最大5.9倍の改善が報告され、必要パラメータもLoRA比で6〜60%程度に抑えられるとされています。
  • マイナー特異方向への適応を制約することで、新しい知識の統合をより効率的かつ安定に行える可能性が示唆されています。

Abstract

Minor Component Adaptation (MiCA) is a novel parameter-efficient fine-tuning method for large language models that focuses on adapting underutilized subspaces of model representations. Unlike conventional methods such as Low-Rank Adaptation (LoRA), which target dominant subspaces, MiCA leverages Singular Value Decomposition to identify subspaces related to minor singular vectors associated with the least significant singular values and constrains the update of parameters during fine-tuning to those directions. This strategy leads to up to 5.9x improvement in knowledge acquisition under optimized training hyperparameters and a minimal parameter footprint of 6-60% compared to LoRA. These results suggest that constraining adaptation to minor singular directions provides a more efficient and stable mechanism for integrating new knowledge into pre-trained language models.