MiCA Learns More Knowledge Than LoRA and Full Fine-Tuning
arXiv cs.LG / 4/3/2026
💬 OpinionIdeas & Deep AnalysisModels & Research
Key Points
- MiCA(Minor Component Adaptation)は、LLMの表現空間における「未活用なサブスペース」を狙って、学習更新を特定の潜在方向へ制約するパラメータ効率の高い微調整手法です。
- LoRAが支配的なサブスペースを更新するのに対し、MiCAはSVDで「最小の特異値に対応する少数の(マイナー)特異ベクトル方向」を特定し、その方向に沿う更新だけを許容します。
- 最適化された学習ハイパーパラメータ下で、知識獲得においてLoRA比最大5.9倍の改善が報告され、必要パラメータもLoRA比で6〜60%程度に抑えられるとされています。
- マイナー特異方向への適応を制約することで、新しい知識の統合をより効率的かつ安定に行える可能性が示唆されています。
Related Articles

Why I built an AI assistant that doesn't know who you are
Dev.to

DenseNet Paper Walkthrough: All Connected
Towards Data Science

Meta Adaptive Ranking Model: What Instagram Advertisers Gain in 2026 | MKDM
Dev.to

The Facebook insider building content moderation for the AI era
TechCrunch
Qwen3.5 vs Gemma 4: Benchmarks vs real world use?
Reddit r/LocalLLaMA