広告

低ランクテンソル回帰モデルに対する漸近的オプティミズム:ニューラルネットワーク圧縮への応用

arXiv cs.LG / 2026/3/30

💬 オピニオンSignals & Early TrendsIdeas & Deep AnalysisTools & Practical UsageModels & Research

要点

  • 本論文は、ランダムな共変量デザインにおける低ランクテンソル回帰のランク選択を解析し、学習性能とテスト性能の違い(いわゆる「オプティミズム」)に焦点を当てる。
  • ガウスのランダム・デザインモデルの下で、CPおよびTuckerの両方のテンソル分解について、学習とテストの間の期待される食い違いを集団レベルで表現する。
  • オプティミズムが真のテンソルランクを用いると最小化されることを示し、それに動機づけられた予測指向のランク選択規則を提案する。この規則はクロスバリデーションと整合的であり、テンソルモデル平均化も支える。
  • 著者らは、過小ランクあるいは過大ランクのモデルがそれでも見かけ上良くなるのは「いつ/なぜ」かを明確化し、提案手法の限界と実用上の適用範囲を定義する。
  • 実データの画像回帰で提案手法を検証し、さらにニューラルネットワークのテンソルベース圧縮へ拡張することで、深層学習圧縮のためのモデル選択ツールとして位置づける。

Abstract

本研究では、ランダム共変量デザインの下での低ランクテンソル回帰に対するランク選択を扱います。ガウスのランダム設計モデルといくつかの穏やかな条件のもとで、CP分解およびTucker分解の双方について、期待される訓練―テスト間の食い違い(楽観バイアス)に関する母集団表現を導出します。さらに、この楽観バイアスがCP回帰およびTucker回帰のいずれにおいても真のテンソルランクで最小化されることを示します。これにより、交差検証と整合し、さらにテンソル・モデル平均化へ自然に拡張できる、予測志向のランク選択則が得られます。また、過小ランクまたは過大ランクのモデルが望ましいように見える可能性がある条件について議論し、手法の適用範囲を明確化します。最後に、実世界の画像回帰タスクにおける実用上の有用性を実証し、さらにニューラルネットワークのテンソルベース圧縮へと適用を拡張し、深層学習におけるモデル選択の可能性を強調します。

広告