任意サンプリングに対するテンソル補完のための畳み込み固有ベクトルに基づく核ノルム最小化(ICNNM)

arXiv cs.CV / 2026/4/21

📰 ニュースModels & Research

要点

  • 本論文は、任意サンプリング下でのテンソル補完(TCAS)に取り組む新手法ICNNMを提案し、先行するConvolution Nuclear Norm Minimization(CNNM)を拡張します。
  • CNNMの最適化は、複数回の特異値分解(SVD)を要するため計算コストが高く、そのボトルネックを解消することが目的です。
  • ICNNMは、畳み込み固有ベクトルの観点から目的関数を再定式化し、テンソル間で共有される事前学習済みの畳み込み固有ベクトルを用いることでSVDステップを回避します。
  • これにより計算時間を大幅に削減できるだけでなく、事前学習済みの固有ベクトルにより追加の事前知識を導入することで復元性能も向上します。
  • 動画の補完、予測、フレーム補間といった実験で、ICNNMがCNNMおよび複数の競合手法を上回ることが示されています。

Abstract

最近新たに提案された畳み込み核ノルム最小化(Convolution Nuclear Norm Minimization: CNNM)は、 \textit{任意のサンプリングによるテンソル補完}(TCAS)という問題に取り組む。TCASは、テンソルの要素のうち、任意の手法でサンプルされた一部のエントリから、そのテンソルを復元することを含む。CNNMは有望な性能を示す一方で、その最適化手順では特異値分解(Singular Value Decomposition: SVD)を複数回実行する必要があり、計算コストが高く、並列化もしにくい。これに対処するため、畳み込み固有ベクトルの観点から、CNNMの最適化目的を再定式化する。異なるテンソル間で共有される事前学習済みの畳み込み固有ベクトルを導入することで、SVDステップを回避し、計算時間を大幅に短縮する新しい手法である帰納的畳み込み核ノルム最小化(Inductive Convolution Nuclear Norm Minimization: ICNNM)を提案する。さらに、事前学習済みの畳み込み固有ベクトルに符号化された追加の事前知識により、ICNNMは復元性能の面でもCNNMを上回る。動画補完、予測、フレーム補間に関する大規模な実験により、ICNNMがCNNMおよびいくつかの他の競合手法よりも優れていることが検証されている。