CORE: 信頼度と直交残差スコアリングによる堅牢な分布外検出

arXiv cs.AI / 2026/3/20

📰 ニュースModels & Research

要点

  • 本論文は、OOD検出の性能がアーキテクチャやデータセットによって異なることを指摘する。理由は、ロジットベースの手法が分類器の信頼度のみに依存する一方、特徴量ベースの手法は信頼度を全特徴空間の所属情報と結びつけてしまうためである。
  • 彼らは、倒数第2層の特徴量が、分類器に整合した直交サブスペース(信頼度)と、分類器が捨てる残差サブスペースに分解されることを示しており、残差にはロジットベースの手法が見落とすクラス特異的な分布内所属信号が含まれている。
  • CORE (COnfidence + REsidual) は、2つのサブスペースを独立にスコアリングし、正規化された和を用いて結合する。これらの直交性を活用して、より頑健な検出を実現する。
  • 5種類のアーキテクチャと5つのベンチマーク構成にわたり、COREは競争力のあるまたは最先端の結果を達成し、5設定中3つで1位を獲得し、計算オーバーヘッドはほとんどないまま、グランド平均AUROCで最高を記録した。
  • この手法は、追加コストを大幅に増やすことなく、アーキテクチャ固有およびデータセット固有の故障モードを緩和することで、実運用におけるOOD検出の信頼性を向上させる。

要約: OOD(out-of-distribution)検出は、ディープラーニングモデルを信頼性高く展開するうえで不可欠ですが、アーキテクチャやデータセットを横断して一貫して性能を発揮する単一の手法はありません—あるベンチマークで優位に立つスコアラーが別のベンチマークではつまずくことがよくあります。私たちはこの不一致を、共有された構造上の制限に起因するとしている。ロジットベースの手法は分類器の信頼度信号しか捉えず、特徴量ベースの手法は訓練分布への所属を測ろうとするが、それを信頼度と所属が絡み合う全特徴空間で行うため、アーキテクチャ依存の故障モードを引き継いでしまう。我々は、末尾の特徴量が自然に2つの直交サブ空間に分解されることを観察した。1つは信頼度を符号化する分類器に整合した成分、もう1つは分類器が捨てる残差である。我々は、この残差が分布内データに対してクラス特有の方向性サインを運ぶことを発見した—これはロジットベースの手法には見えない所属信号であり、特徴量ベースの手法ではノイズと絡み合っている。われわれは CORE (COnfidence + REsidual) を提案する。CORE は2つの信号を、それぞれのサブスペースを独立にスコア付けして分離し、正規化された総和で組み合わせる。設計上、2つの信号は直交しているため、それらの故障モードはほぼ独立しており、いずれかの視点だけでは信頼性に欠ける場合にも頑健な検出を生み出す。CORE は5つのアーキテクチャと5つのベンチマーク構成に渡って競争力のあるまたは最先端の性能を達成し、5設定中3設定で1位にランクされ、ほとんど計算オーバーヘッドを伴うことなく最高の総合平均AUROCを達成する。