広告

ニューラルネットワークにおける汎化と不確実性推定のための表現力のある事前分布の学習

arXiv stat.ML / 2026/3/31

💬 オピニオンIdeas & Deep AnalysisModels & Research

要点

  • 本論文は、汎化性能と不確実性推定を改善するために、ニューラルネットワークから得られるスケーラブルで構造化された事後分布を情報量のある事前分布として用いる、事前分布学習手法を提案する。
  • 学習された事前分布は大規模において表現力のある確率表現をもたらし、(ImageNet などの)事前学習モデルのベイズ的アナロジーとして機能しつつ、空虚でない汎化の上界(generalization bounds)を生成すると主張する。
  • このアプローチは継続学習(continual learning)へ拡張され、事前分布の性質が、望ましい汎化/不確実性の挙動を失うことなくタスクをまたいで学習するのに有益であると論じる。
  • 主要な技術的実現要素には、効率的な和(sums-of-Kronecker-product)計算や、汎化の上界を引き締めることを目的とした扱いやすい目的関数の導出/最適化が含まれる。
  • 不確実性推定と汎化の両方に対する有効性を示すための大規模な実験結果が報告される。

Abstract

本研究では、深層ニューラルネットワークにおける一般化と不確実性推定を前進させるための、新しい事前学習(prior learning)手法を提案する。中核となるアイデアは、一般化の保証を伴う、情報的な事前分布として、ニューラルネットワークのスケーラブルで構造化された事後分布を活用することである。我々が学習した事前分布は、ImageNetで事前学習されたモデルのベイズ的な対応物のように、大規模において表現力のある確率的表現を与え、さらに自明ではない(non-vacuous)一般化境界を生成する。加えて、このアイデアを連続学習の枠組みに拡張し、そこでは我々の事前分布の好ましい性質が望ましいものとなる。主要な実現要因は、技術的貢献である:(1) Kronecker積の和の計算、および (2) 改善された一般化境界につながる、取り扱い可能な目的関数の導出と最適化。実験的に、我々は不確実性推定と一般化に対してこの手法の有効性を、徹底的に示す。

広告