GL-LowPopArt: A Nearly Instance-Wise Minimax-Optimal Estimator for Generalized Low-Rank Trace Regression

arXiv stat.ML / 4/13/2026

💬 OpinionIdeas & Deep AnalysisModels & Research

Key Points

  • 論文は、一般化低ランクのトレース回帰向けに、Catoni型の推定器「GL-LowPopArt」を提案し、核ノルム正則化の後に行列Catoni推定を行う2段階手法を提示している。
  • 非線形な逆リンク関数によって生じるバイアスの制御という技術課題に対し、2段階アプローチで解析可能な形に扱うことで、既存研究より優れた推定誤差上界を示している。
  • 底界として局所ミニマックスの下限を証明し、真のヘッセ行列の条件数に応じた範囲で、インスタンスごとの(ほぼ)最適性を保証する結果を与えている。
  • 一般化線形行列補完に対して即座に改善されたFrobenius誤差保証が得られることを示し、さらに新たに「bilinear dueling bandits」という設定を導入した。
  • explore-then-commit戦略と「GL-LowPopArt」を組み合わせ、ナイーブなベクトル化に比べてBorda regretの上界改善を実験的・理論的に示している。

Abstract

We present `GL-LowPopArt`, a novel Catoni-style estimator for generalized low-rank trace regression. Building on `LowPopArt` (Jang et al., 2024), it employs a two-stage approach: nuclear norm regularization followed by matrix Catoni estimation. We establish state-of-the-art estimation error bounds, surpassing existing guarantees (Fan et al., 2019; Kang et al., 2022), and reveal a novel experimental design objective, \mathrm{GL}(\pi). The key technical challenge is controlling bias from the nonlinear inverse link function, which we address with our two-stage approach. We prove a *local minimax lower bound*, showing that our `GL-LowPopArt` enjoys instance-wise optimality up to the condition number of the ground-truth Hessian. Our method immediately achieves an improved Frobenius error guarantee for generalized linear matrix completion. We also introduce a new problem setting called **bilinear dueling bandits**, a contextualized version of dueling bandits with a general preference model. Using an explore-then-commit approach with `GL-LowPopArt', we show an improved Borda regret bound over na\"ive vectorization (Wu et al., 2024).