補間によって捉える、生存モデルにおける過パラメータ化の理解
arXiv stat.ML / 2026/4/23
💬 オピニオンIdeas & Deep AnalysisModels & Research
要点
- 古典的な学習理論では、モデル容量に対するテスト損失がU字型になることが予測されますが、近年の機械学習では「補間閾値」の後に損失が再び下がるダブルディセントが観測されることが多いです。
- 本論文は、生存分析においてもダブルディセントや過パラメータ化の影響が現れるかを調べますが、この点は回帰・分類に比べて未解明な部分が多いとされています。
- 著者らは、DeepSurv、PC-Hazard、Nnet-Survival、N-MTLRの4つの生存モデルについて、損失ベース学習における補間と有限ノルム補間を厳密に定義して解析します。
- likelihoodベースの損失関数とモデル実装が、補間(および有限ノルム補間)の成立可否を左右することを示し、生存モデルにおいて過パラメータ化が無害とは限らないことを示唆します。
- 数値実験により、理論を支持し、検討した生存モデル間で一般化挙動がそれぞれ異なることを示します。




