Sparse Max-Affine Regression

arXiv stat.ML / 4/7/2026

💬 OpinionSignals & Early TrendsIdeas & Deep AnalysisModels & Research

Key Points

  • 本論文は、k個のアフィン関数の最大値として表される凸な区分線形回帰(max-affine regression)で、変数選択を目的にSparse Gradient Descent(Sp-GD)を提案し、その局所収束を非漸近的に解析している。
  • Sp-GDは、部分ガウス雑音かつ共変量がsub-Gaussian性とanti-concentration性を満たす条件下で、固定されたモデル次数・パラメータに対してε精度の推定を観測数O(max(ε^{-2}σ_z^2,1)·s log(d/s))で達成できると示され、無雑音ではO(s log(d/s))で厳密なパラメータ復元が可能だとする。
  • 初期化として、{a*_j}が張る部分空間をSparse PCAで推定し、r-covering探索でモデルパラメータを推定する手法を導入し、ガウス分布の下での非漸近的なε精度保証も与えている。
  • さらに、Real Maslov Dequantization(RMD)という変換を提案し、疎な一般化多項式を疎なmax-affineモデルへ写像することで、温度パラメータに対して誤差が指数的に小さくなることを示すとともに、RMDが誘導する有界雑音モデルに対するSp-GDの理論保証を拡張している。
  • 理論解析に加え、モンテカルロ数値実験によりSp-GDおよび初期化手法の性能が理論と整合することを報告している。

Abstract

This paper presents Sparse Gradient Descent as a solution for variable selection in convex piecewise linear regression, where the model is given as the maximum of k-affine functions x \mapsto \max_{j \in [k]} \langle a_j^\star, x \rangle + b_j^\star for j = 1,\dots,k. Here, \{ a_j^\star\}_{j=1}^k and \{b_j^\star\}_{j=1}^k denote the ground-truth weight vectors and intercepts. A non-asymptotic local convergence analysis is provided for Sp-GD under sub-Gaussian noise when the covariate distribution satisfies the sub-Gaussianity and anti-concentration properties. When the model order and parameters are fixed, Sp-GD provides an \epsilon-accurate estimate given \mathcal{O}(\max(\epsilon^{-2}\sigma_z^2,1)s\log(d/s)) observations where \sigma_z^2 denotes the noise variance. This also implies the exact parameter recovery by Sp-GD from \mathcal{O}(s\log(d/s)) noise-free observations. The proposed initialization scheme uses sparse principal component analysis to estimate the subspace spanned by \{ a_j^\star\}_{j=1}^k, then applies an r-covering search to estimate the model parameters. A non-asymptotic analysis is presented for this initialization scheme when the covariates and noise samples follow Gaussian distributions. When the model order and parameters are fixed, this initialization scheme provides an \epsilon-accurate estimate given \mathcal{O}(\epsilon^{-2}\max(\sigma_z^4,\sigma_z^2,1)s^2\log^4(d)) observations. A new transformation named Real Maslov Dequantization (RMD) is proposed to transform sparse generalized polynomials into sparse max-affine models. The error decay rate of RMD is shown to be exponentially small in its temperature parameter. Furthermore, theoretical guarantees for Sp-GD are extended to the bounded noise model induced by RMD. Numerical Monte Carlo results corroborate theoretical findings for Sp-GD and the initialization scheme.