概要:深層ニューラルネットワーク(DNN)は、その柔軟性と高い予測性能のため、科学的および実用的な幅広い応用分野で欠かせない存在となっている。とはいえ高精度であるにも関わらず、DNNはしばしばキャリブレーションが不十分であり、誤った予測に対して過度に自信を持つ確率を割り当てることが多い。この制約は、信頼性の高い不確実性推定を提供する統合的な機構の必要性を高めている。本稿では、不確実性定量化のための二つの著名なアプローチを比較する。モンテカルロ・ドロップアウトによるベイズ近似と、非パラメトリックなコンフォーマル予測フレームワークである。これら二つの手法は、Fashion-MNISTデータセット上で学習させたH-CNN VGG16とGoogLeNetの二つの畳み込みニューラルネットワークアーキテクチャを用いて評価される。経験的な結果は、H-CNN VGG16がより高い予測精度を達成する一方で、著しい過信を示す傾向があるのに対し、GoogLeNetはより適切にキャリブレーションされた不確実性推定を提供することを示している。コンフォーマル予測は、統計的に保証された予測集合を生み出すことによって一貫した妥当性を示し、高リスクの意思決定文脈での実用的な価値を強調する。全体として、結果は精度だけでなくモデルの性能を評価することの重要性を強調し、より信頼性が高く信頼できる深層学習システムの開発に貢献する。
正確性を超えて: 畳み込みニューラルネットワークにおける信頼性と不確実性推定
arXiv cs.LG / 2026/3/12
📰 ニュースIdeas & Deep AnalysisModels & Research
要点
- 本論文は、CNNにおける信頼性と不確実性を、ベイズ近似のモンテカルロ・ドロップアウトと不確実性定量化のためのコンフォーマル予測を比較することで調査します。
- Fashion-MNISTデータセット上で、H-CNN VGG16とGoogLeNetを用いた実験は、VGG16がより高い精度を達成する一方で過信の傾向が強いことを示し、GoogLeNetはより適切にキャリブレーションされた不確実性推定を提供することを示しています。
- コンフォーマル予測は統計的に妥当な予測集合を生み出し、高リスクな意思決定の文脈で実用的な価値を提供します。
- 本研究は、精度だけでなくモデルの性能を評価することの重要性を強調し、より信頼性が高く信頼できる深層学習システムの開発に貢献します。