AI Navigate

潜在事後因子の理論的基盤: 多証拠推論の形式的保証

arXiv cs.AI / 2026/3/18

📰 ニュースIdeas & Deep AnalysisModels & Research

要点

  • LPFは各証拠項目を変分オートエンコーダを用いてガウス分布の潜在事後分布へエンコードし、異種の証拠に対する原理的な確率推論を可能にする。
  • これらの潜在事後分布を、Sum-Product Network推論(LPF-SPN)を用いて正確に集約するか、学習されたニューラルアグリゲータ(LPF-Learned)を用いて集約する。
  • 著者らは、較正性の保持、モンテカルロ誤差の低減、非自明な PAC-Bayes 境界、情報理論的効率性にほぼ近いこと、部分的・破損した証拠下での頑健な劣化、そして厳密な認識的不確実性と偶然的不確実性の分解を含む、7つの形式的保証を証明している。
  • 最大で4,200件の訓練データを含むデータセットでの実証的検証は、LPFが医療、金融リスク、法的分析、規制遵守などの安全性が重要な応用分野に対して信頼性を示すことを示している。

要旨: 私たちは、確率予測タスクにおける複数の異種証拠アイテムを確率的に統合するための原理的フレームワークである Latent Posterior Factors (LPF) の完全な理論的特徴付けを提示します。多証拠推論はヘルスケア診断、財務リスク評価、法的ケース分析、規制遵守などのハイリスク領域で広く現れますが、既存のアプローチは形式的な保証を欠くか、または多証拠シナリオをアーキテクチャ的に扱い切れていません。LPF は、各証拠アイテムを変分オートエンコーダを介してガウス分布の潜在後方分布へ符号化し、モンテカルロ周辺化を通じて事後分布をソフト因子へ変換し、因子を正確な Sum-Product Network 推論(LPF-SPN)または学習済みニューラルアグリゲータ(LPF-Learned)によって統合します。
私たちは、信頼できる AI の主要な要件を網羅する七つの形式的保証を示します:キャリブレーション保持(ECE <= ε + C/√(K_eff));モンテカルロ誤差は O(1/√M) で減衰します;N=4200 で訓練データとテストデータのギャップが 0.0085 の非自明な PAC-Bayes 境界;情報理論的下限の範囲内で約 1.12x の動作;汚染下での O(ε δ √K) の穏やかな劣化のもと、証拠の半分が敵対的に置換されても 88% の性能を維持;O(1/√K) のキャリブレーション減衰で R^2=0.849 を達成;エピステミック-アレータリア的不確実性の厳密な分解で誤差は 0.002% 未満。すべての定理は、最大 4,200 の訓練例を含む管理されたデータセット上で経験的に検証されています。私たちの理論的フレームワークは、LPF を安全性が重要な応用領域における信頼できるマルチ証拠 AI の基盤として確立します。