要旨: ベイズニューラルネットワークのような不確実性を考慮する機械学習器は、点予測の代わりに不確実性の定量化を出力します。本研究では、不確実性を考慮する学習器に対し、還元可能な(エピステミックな)不確実性に起因する誤りを特徴づけ、そしてそれを取り除く方法を特定するための、原理に基づく枠組みを提供します。エピステミック誤りのための原理に基づく定義を導入し、分布シフトのもとでの不完全なマルチタスク学習という、非常に一般的な状況で動作する分解可能なエピステミック誤りの上界を与えます。この設定では、学習(ソース)データは複数のタスクから生じ得て、テスト(ターゲット)データはソースデータのタスクから系統的に異なる可能性があり、さらに学習器がソースデータを正確に特徴づけられない可能性もあります。本上界は、学習手続きと環境の複数の側面それぞれに対して、エピステミック誤りを個別に帰属させます。一般結果の系として、ベイズ転移学習および
近傍内での分布シフトの設定に特化したエピステミック誤りの上界を、-近傍の設定において提示します。




