平均の彼方へ:二峰性回帰のための分布を考慮した損失関数

arXiv cs.AI / 2026/3/25

💬 オピニオンIdeas & Deep AnalysisModels & Research

要点

  • 本論文は、二峰性回帰における重要な不確実性推定問題を扱う。学習された表現から得られる誤差は、確信度の高い予測と曖昧な予測の両方が存在するため、二峰性分布に従う。
  • 著者らは、標準的な回帰損失は暗黙に一峰性のガウスノイズを仮定しており、その結果として「平均崩壊(mean-collapse)」が起こりやすく、二峰性の状況で予測不確実性を適切に表現できないと主張する。
  • 著者らは、正規化RMSEとワッサースタイン距離およびクレーマー距離を組み合わせた、分布を考慮した損失関数を提案し、二峰性の予測分布をより良くモデル化する。
  • 4つの評価段階にわたる実験により、本手法は、混合密度ネットワーク(MDN)に典型的な最適化の不安定さなしに、標準的な深層回帰アーキテクチャで二峰性分布を復元できることが示される。
  • 結果として、ワッサースタイン距離に基づく損失はパレート効率の利点をもたらす。つまり、一峰性タスクではMSEに近い安定性を維持しつつ、複雑な二峰性データセットではジェンセン=シャノン距離を45%低減できる。また、尤もらしい(aleatoric)不確実性推定において、MDNよりも忠実性と頑健性の両面で優れている。

Abstract

多くのアプリケーション領域にわたって機械学習モデルが強い予測性能を達成できているにもかかわらず、予測の確信度に関する信頼できる推定を通じてそれらの信頼性を評価することは、依然として重要な課題である。この問題は、学習された表現から推論される誤りの尤度が二峰性分布に従うような状況で生じる。これは、確信のある予測と曖昧な予測が共存することによって起こる。標準的な回帰アプローチは、このような状況における予測不確実性を十分に表現できないことが多い。というのも、これらは暗黙に単峰のガウス雑音を仮定しているため、二峰性の設定では平均崩壊(mean-collapse)という挙動につながるからである。Mixture Density Networks(MDNs)は異なる分布を表現できるものの、最適化の不安定さが深刻である。我々は、正規化RMSEに加えてWasserstein距離およびCram\'er距離を統合した、分布を意識した損失関数のファミリーを提案する。これを標準的な深層回帰モデルに適用すると、混合モデルの不安定性を伴うことなく二峰性分布を復元できる。4つの実験段階で検証した結果、提案するWasserstein損失は新しいパレート効率のフロンティアを確立することが示された。具体的には、単峰タスクにおけるMSEのような標準的な回帰損失と同等の安定性を保ちながら、複雑な二峰性データセット上でJensen-Shannon Divergenceを45%削減する。提案フレームワークは、忠実度と頑健性の両面でMDNsを厳密に上回り、信頼できるAIシステムにおけるアレアトリック不確実性推定のための信頼性のある手段を提供する。

平均の彼方へ:二峰性回帰のための分布を考慮した損失関数 | AI Navigate