低ランクテンソル回帰モデルに対する漸近的オプティミズム:ニューラルネットワーク圧縮への応用
arXiv cs.LG / 2026/3/30
💬 オピニオンSignals & Early TrendsIdeas & Deep AnalysisTools & Practical UsageModels & Research
要点
- 本論文は、ランダムな共変量デザインにおける低ランクテンソル回帰のランク選択を解析し、学習性能とテスト性能の違い(いわゆる「オプティミズム」)に焦点を当てる。
- ガウスのランダム・デザインモデルの下で、CPおよびTuckerの両方のテンソル分解について、学習とテストの間の期待される食い違いを集団レベルで表現する。
- オプティミズムが真のテンソルランクを用いると最小化されることを示し、それに動機づけられた予測指向のランク選択規則を提案する。この規則はクロスバリデーションと整合的であり、テンソルモデル平均化も支える。
- 著者らは、過小ランクあるいは過大ランクのモデルがそれでも見かけ上良くなるのは「いつ/なぜ」かを明確化し、提案手法の限界と実用上の適用範囲を定義する。
- 実データの画像回帰で提案手法を検証し、さらにニューラルネットワークのテンソルベース圧縮へ拡張することで、深層学習圧縮のためのモデル選択ツールとして位置づける。



