広告

カーネル・スティーン距離推定のミニマックス下限

arXiv stat.ML / 2026/3/31

💬 オピニオンIdeas & Deep AnalysisModels & Research

要点

  • 本論文は、カーネル・スティーン距離(KSD)推定に対するミニマックス下限が $n^{-1/2}$ であることを示し、既存のKSD推定量が既知の収束率を達成していることから、それらが最適に収束することを明らかにする。
  • ランジュバン・スティーン作用素を用いた $
  • abla$ $
  • abla$ $
  • abla$ $
  • abla$(※)の解析により、ユークリッド空間 $
  • mathbb R^d$ 上でのKSD推定に対してこれらの結果を確立し、ガウス・カーネルについて明示的な定数も与える。
  • ガウス・カーネルに関する明示的な解析から、推定の難しさが次元 $d$ に対して指数的に増大し得ることが示唆される。
  • さらに一般の領域へと拡張し、ユークリッド的設定を超えてミニマックス下限を確定させる。
  • 本研究は、KSDに基づく適合度評価(goodness-of-fit estimation)の統計的限界を特徴づけるための補完的な2つの証明戦略を提示する。

Abstract

Kernel Stein 差異(KSD)は、この10年間で適合度(goodness-of-fit)を定量化するための強力な手法として登場し、数多くの成功した応用が報告されてきました。私たちの知る限り、既存の、既知のレートをもつすべての KSD 推定器は \sqrt n-収束を達成します。本研究では、2つの補完的な結果(異なる証明戦略を用いる)を提示し、KSD 推定のミニマックス下限が n^{-1/2} であることを示し、これらの推定器の最適性を確立します。最初の結果では、Langevin-Stein 演算子を用いた \mathbb R^d 上での KSD 推定に焦点を当てます。ガウス・カーネルに対する明示的な定数から、KSD 推定の難しさが次元数 d に関して指数関数的に増大し得ることが示唆されます。2つ目の結果では、一般の領域における KSD 推定のミニマックス下限を確定します。

広告