SynQ:合成を考慮したファインチューニングによる正確なゼロショット量子化

arXiv cs.CV / 2026/3/20

📰 ニュースModels & Research

要点

  • SynQは、トレーニングデータにアクセスできない状態で事前学習済みモデルを量子化する、合成を考慮したファインチューニングフレームワークです。
  • 合成サンプルのノイズを低減するための低域通過フィルタを用い、量子化モデルのクラス活性マップを事前学習済みモデルと一致させ、難易度の高いサンプルにはソフトラベルを用いて誤ったラベルからの誤導を緩和することで、3つの主要なZSQ課題を克服します。
  • 広範な実験により、SynQは既存のZSQ手法と比較して最先端の精度を達成することが示されました。
  • データを使わずに正確な量子化を実現することで、プライバシーやセキュリティ要件が厳しいエッジデバイスへの圧縮モデルのデプロイを促進します。

概要: データなしで事前訓練済みモデルを正確に量子化するにはどうすればよいでしょうか。量子化アルゴリズムは、リソース制約のあるエッジデバイス上でニューラルネットワークをデプロイする際に広く用いられています。Zero-shot Quantization (ZSQ) は、プライバシーやセキュリティ上の理由でトレーニングデータにアクセスできないという、重要で現実的な状況に対処します。しかし、既存の ZSQ 手法の性能を妨げる3つの重要な課題があります: 1) 合成データセットのノイズ、2) ターゲット外のパターンに基づく予測、3) 誤ったハードラベルによる誤導。
本論文では、SynQ(Synthesis-aware Fine-tuning for Zero-shot Quantization)を提案します。これは、既存手法の限界を克服するために綿密に設計された ZSQ フレームワークです。SynQ は、生成サンプルからのノイズをローパスフィルタを活用して最小化します。
次に、SynQ は、事前訓練済みモデルとクラス活性化マップを揃えることで精度を向上させるよう、量子化済みモデルを訓練します。さらに、SynQ は難しいサンプルにはソフトラベルのみを用いることで、事前訓練済みモデルの誤りによる誤導を軽減します。広範な実験により、SynQ は既存の ZSQ 手法を凌ぐ最先端の精度を提供することが示されています。