スパース最大アフィン回帰

arXiv stat.ML / 2026/4/7

💬 オピニオンSignals & Early TrendsIdeas & Deep AnalysisModels & Research

要点

  • 本論文は、k個のアフィン関数の最大値として表される凸な区分線形回帰(max-affine regression)で、変数選択を目的にSparse Gradient Descent(Sp-GD)を提案し、その局所収束を非漸近的に解析している。
  • Sp-GDは、部分ガウス雑音かつ共変量がsub-Gaussian性とanti-concentration性を満たす条件下で、固定されたモデル次数・パラメータに対してε精度の推定を観測数O(max(ε^{-2}σ_z^2,1)·s log(d/s))で達成できると示され、無雑音ではO(s log(d/s))で厳密なパラメータ復元が可能だとする。
  • 初期化として、{a*_j}が張る部分空間をSparse PCAで推定し、r-covering探索でモデルパラメータを推定する手法を導入し、ガウス分布の下での非漸近的なε精度保証も与えている。
  • さらに、Real Maslov Dequantization(RMD)という変換を提案し、疎な一般化多項式を疎なmax-affineモデルへ写像することで、温度パラメータに対して誤差が指数的に小さくなることを示すとともに、RMDが誘導する有界雑音モデルに対するSp-GDの理論保証を拡張している。
  • 理論解析に加え、モンテカルロ数値実験によりSp-GDおよび初期化手法の性能が理論と整合することを報告している。

Abstract

本論文は、凸な区分線形回帰における変数選択のための解として、スパース勾配降下法(Sparse Gradient Descent; Sp-GD)を提案する。ここでモデルは、k個のアフィン関数の最大値として与えられ、x \mapsto \max_{j \in [k]} \langle a_j^\star, x \rangle + b_j^\starj = 1,\dots,k)である。ここで、\{ a_j^\star\}_{j=1}^k\{b_j^\star\}_{j=1}^k は、真の重みベクトルと切片を表す。共変量分布がサブガウス性および反集中(anti-concentration)性を満たすとき、サブガウスノイズのもとでSp-GDに対する非漸近的な局所収束解析を与える。モデル次数とパラメータが固定されている場合、Sp-GDは、ノイズ分散を \sigma_z^2 とすると、\mathcal{O}(\max(\epsilon^{-2}\sigma_z^2,1)s\log(d/s)) 個の観測により \epsilon 精度の推定を提供する。これは、\mathcal{O}(s\log(d/s)) 個のノイズなし観測からSp-GDがパラメータを正確に回復できることも意味する。提案する初期化スキームは、疎な主成分分析(sparse principal component analysis)を用いて \{ a_j^\star\}_{j=1}^k が張る部分空間を推定し、その後、r-被覆(r-covering)探索によりモデルパラメータを推定する。この初期化スキームに対して、共変量とノイズ標本がガウス分布に従うと仮定した場合の非漸近的解析を提示する。モデル次数とパラメータが固定されている場合、この初期化スキームは、\mathcal{O}(\epsilon^{-2}\max(\sigma_z^4,\sigma_z^2,1)s^2\log^4(d)) 個の観測により \epsilon 精度の推定を提供する。RMD(Real Maslov Dequantization:実マスロフ脱量子化)と名付けられた新しい変換を提案し、疎な一般化多項式を疎な max-アフィン(max-affine)モデルへ変換する。RMDの誤差減衰率は、その温度パラメータに関して指数的に小さいことが示される。さらに、RMDによって誘起される有界ノイズモデルに対して、Sp-GDの理論的保証を拡張する。数値的なモンテカルロ結果は、Sp-GDおよび初期化スキームに関する理論的知見を裏付ける。