Causal Circuit-Guided Pruning: 因果推論に基づくTransformerの機能保持圧縮とWandaとの比較

Zenn / 3/30/2026

💬 OpinionIdeas & Deep AnalysisModels & Research

Key Points

  • 因果推論に基づく「Causal Circuit-Guided Pruning」により、Transformerを圧縮しても重要な機能をできるだけ維持するためのプルーニング手法を提示しています。
  • どの部分(回路/サブ構造)を残すべきかを因果的な観点でガイドし、単なる重みの大きさや素朴な基準よりも狙いを明確にしています。
  • 既存手法のWanda(重みや活性に基づく圧縮アプローチ)と比較し、機能維持(性能劣化の抑制)と圧縮のトレードオフでの違いを検討しています。
  • Transformer圧縮を「因果的に必要な回路」に結び付ける発想により、推論コスト削減と精度維持を同時に狙う方向性を示しています。
1. はじめに 大規模言語モデル(LLM)の社会実装において,モデル圧縮は不可欠な技術である.近年,Wanda [Sun et al., 2023] や SparseGPT [Frantar et al., 2023] といった手法が登場し,事後学習なし(Post-training)での枝切り(Pruning)が可能となった.しかし,これら既存手法の多くは,パラメータの大きさや入力との積といった「相関的指標(Correlational Metrics)」に依存している. 本稿では,従来の相関に基づくアプローチの限界を指摘し,因果推論(Causal Inference)の枠組みを導入し...

Continue reading this article on the original site.

Read original →