IQ-LUT:効率的な画像超解像のための補間および量子化を行ったLUT

arXiv cs.CV / 2026/4/9

📰 ニュースSignals & Early TrendsIdeas & Deep AnalysisModels & Research

要点

  • 本論文は、LUT(ルックアップテーブル)に基づく画像超解像をより実用的にするための手法「IQ-LUT」を提案し、出力品質を損なわず(場合によっては向上させつつ)LUTサイズを削減する。
  • 受容野とビット深度に応じて指数関数的に増大するLUTのストレージボトルネックに対処するため、補間と量子化を1入力・複数出力のECNN(拡張畳み込みニューラルネットワーク)へ統合し、LUTインデックス空間を縮小する。
  • 残差学習によりLUTのビット深度に対する感度を低減し、学習の安定性を高めるとともに、再構成をきめ細かな視覚的ディテールへとより重点的に行えるようにする。
  • 知識蒸留を用いて非一様な量子化戦略を導き、量子化レベルを最適化することで、量子化に起因する品質劣化を補償しつつ、さらに必要なストレージを削減する。
  • ベンチマークでは、基準となるECNN手法に比べて最大50倍のストレージコスト削減を達成しながら、超解像の品質が優れていることが報告されており、リソース制約のあるデバイスへの展開を後押しする。

Abstract

ルックアップテーブル(LUT)手法は、画像超解像推論を高速化する上で大きな可能性を示しています。しかし、より大きな受容野やビット深度を高めることによって画像品質をさらに向上させようとすると、LUTのインデックス空間が指数関数的に増大し、保存のボトルネックとなってリソース制約のあるデバイスへの展開を制限します。私たちは、LUTサイズを削減しつつ同時に超解像品質を向上させるIQ-LUTを提案します。まず、単一入力・複数出力のECNNに補間と量子化を統合し、それによってインデックス空間を大幅に削減し、結果としてLUT全体のサイズを劇的に小さくします。次に、残差学習の統合により、LUTのビット深度への依存が緩和されます。これにより学習の安定性が促進され、さらに優れた視覚品質のために微細な詳細の再構築を優先できます。最後に、知識蒸留に導かれて、非一様量子化プロセスが量子化レベルを最適化します。これにより、保存量を削減しながら、量子化による損失も補償します。広範なベンチマークにより、提案手法がストレージコストを大幅に削減すること(ECNNと比べて最大50倍)に加え、より高い超解像品質を達成することが示されています。