要旨: 深さプルーニングは、Transformerブロックを削除することで、大規模言語モデルの推論効率を向上させます。従来の研究は重要度基準や探索アルゴリズムに焦点を当てることが多く、しばしば層の冗長性を、事前学習済みネットワークの固有の構造的性質として扱ってきました。これに対して本研究では、モデルと評価目的の両方によって冗長性が共同で影響を受ける、
\emph{機能(functional)という観点}を採用します。これにより、普遍的なランキングだけでは十分でない可能性が示唆されます。3つのLLMファミリー、2つのキャリブレーション目的、および7つの探索アルゴリズムにまたがる実証研究の結果、異なる目的が質的に異なる冗長な層をもたらすこと、また、パープレキシティと下流タスクの精度にもとづくランキングは一貫して整合しないことを観察しました。もっとも、目的を固定した場合には、探索アルゴリズムは概ね同様の解を生成する傾向があります。全体として、本研究の結果は、探索アルゴリズムの選択よりもキャリブレーション目的のほうがより大きな影響を及ぼし得ることを示しており、目的設計へのさらなる注意が有益である可能性を示唆します。
大規模言語モデルにおける層の冗長性を再考:キャリブレーション目的と深さプルーニングの探索
arXiv cs.LG / 2026/4/29
📰 ニュースIdeas & Deep AnalysisModels & Research
要点
- 本論文は、大規模言語モデルの推論効率を高める深さプルーニングについて、「冗長な層」は事前学習済みネットワークの固有の構造的性質だという考え方に疑問を投げかけています。
- モデルと評価(キャリブレーション)目的の両方が冗長性に影響するという「機能的な視点」を提案し、汎用的な層のランキングだけでは不十分である可能性を示唆しています。
- 3つのLLMファミリー、2つのキャリブレーション目的、7つの探索アルゴリズムにわたる実験の結果、目的が異なると“冗長層”として現れる層のセットが質的に異なることが分かりました。
- また、パープレキシティに基づく順位付けと、下流タスク精度に基づく順位付けは一貫して一致しないと報告しています。
- さらに、同一の目的の下では探索アルゴリズムが比較的似た解を導きやすい一方で、全体としてはキャリブレーション目的の設計が探索アルゴリズムの選択よりも影響が大きい可能性があるため、目的設計への注目を促しています。



