なぜ機械学習モデルは極端な値を体系的に過小評価するのか II:LatentNNでそれを修正する方法
arXiv stat.ML / 2026/3/26
💬 オピニオンIdeas & Deep AnalysisTools & Practical UsageModels & Research
要点
- 本論文では、入力変数の測定誤差によって生じる減衰バイアス(attenuation bias)もニューラルネットワークに影響し、その結果、天文学の回帰タスクにおいて極端な値を体系的に過小評価してしまうと主張している。
- 以前に線形回帰で用いられていた潜在変数アプローチを一般化し、LatentNNを導入することで、最大同時尤度(maximum joint likelihood)によりネットワークのパラメータと潜在的(誤差のない)入力値を共同で学習する。
- LatentNNは、合成の1次元および多変量の相関特徴量の設定、ならびに恒星分光(stellar spectroscopy)アプリケーションで検証され、標準的なニューラルネットワークに比べてバイアスが低減することが示されている。特に低い信号対雑音比(SNR)の領域で効果が大きい。
- 本手法は、測定誤差がデータの固有のレンジの約半分未満の場合に最も効果的であると報告されている。情報量の少ない特徴量しかない極めて低いSNR条件では有効性が低下する。
- 著者らは、測定ノイズが大きい天文学データに対して推論を改善するための、LatentNNのオープンソース実装を提供している。