剪定(プルーニング)の限界を探る:タスク専用ニューロン、モデル崩壊、タスク専用大規模言語モデルにおける回復
arXiv cs.CL / 2026/5/1
📰 ニュースDeveloper Stack & InfrastructureModels & Research
要点
- 本研究は、数学推論やコード生成に特化したタスク専用LLMにおけるニューロン剪定が、タスク性能へ全ニューロンが均一に寄与しているかどうかを検証する。
- 低寄与のニューロンを特定するために活性に基づく選択性(selectivity)指標を提案し、その手法による剪定がランダム剪定よりも一貫してターゲットタスク精度の維持に優れることを示す。
- 逆剪定の実験では、約10%の「特にタスクに固有な」ニューロンを除去するだけで性能が完全に崩壊し得ることが分かり、重要なタスク情報がネットワークのごく一部に集中している可能性を示唆する。
- 1.5Bおよび7Bモデルでは、剪定率15–20%付近に頑健性の閾値があり、これを超えると精度低下や生成失敗が急増する。
- 剪定後のファインチューニングにより性能は大きく回復し、とりわけ強く剪定したモデルほど回復が顕著である一方、剪定はパラメータ数やVRAM使用量を削減し、推論スループットを改善する。




