AIMER: キャリブレーション不要のタスク非依存MoEプルーニング
arXiv cs.LG / 2026/3/20
📰 ニュースDeveloper Stack & InfrastructureModels & Research
要点
- AIMERは、キャリブレーション不要のエキスパートランキング基準を Mixture-of-Experts(MoE)言語モデルに導入し、キャリブレーションなしでのプルーニングを実現します。
- AIMER(エキスパートランキングのための絶対平均を RMS 重要度で割った指標)を定義し、層内のスコア分離を明確にし、エキスパートの階層化を際立たせます。
- 7B〜30B の MoE モデルおよび 25% と 50% のプルーニング比において、16 のベンチマークでキャリブレーションベースのベースラインと比べて競争力がある、またはそれ以上の性能を発揮します。
- エキスパートのスコアリングはわずか 0.22〜1.27 秒で完了し、メモリと推論時のオーバーヘッドを削減することで効率的な展開を可能にします。



