広告

情報幾何学の観点から依存ネットワークを再考する

arXiv cs.LG / 2026/4/2

💬 オピニオンSignals & Early TrendsIdeas & Deep AnalysisModels & Research

要点

  • 本論文は、擬似ギブスサンプリングを情報幾何学を用いて解析することで、依存ネットワークの理論的基盤におけるギャップに取り組む。
  • 各擬似ギブスサンプリングのステップを、完全条件付きマニフォールド上へのm射影として解釈し、定常分布がどのように位置づけられるかを調べるために完全条件付きダイバージェンスを導入する。
  • 著者らは、確率空間における定常分布の位置を特徴づける上界を導出し、構造学習とパラメータ学習の両方を最適化問題として再定式化する。
  • 構造学習とパラメータ学習は、独立した各ノードごとのサブ問題に分解できることが示され、学習の定式化がより扱いやすくなる。
  • 本論文は、学習データ数が無限大になると学習されたモデル分布が真の基礎分布へ収束することを証明し、実験によりその上界が実際にはタイトであることを示す。

Abstract

依存ネットワーク(Heckermanら、2000)は、擬似ギブスサンプリングによって、独立に学習された局所条件付き分布を組み合わせることで、多数の変数をもつ複雑なシステムをモデル化するための柔軟な枠組みを提供する。ベイズネットワークやマルコフネットワークに比べて計算上の利点があるにもかかわらず、依存ネットワークの理論的基盤は不完全なままである。主な理由は、それらのモデル分布――擬似ギブスサンプリングの定常分布として定義される――が閉形式の表現を欠いているためである。本論文では、擬似ギブスサンプリングの情報幾何学的解析を構築し、各サンプリング手順を、完全条件付き多様体へのm射影として解釈する。この解釈に基づき、完全条件付きダイバージェンスを導入し、さらに確率分布の空間における定常分布の位置を特徴づける上界を導出する。つづいて、構造学習とパラメータ学習の双方を、各ノードごとに独立な下問題へ分解される最適化問題として再定式化し、学習サンプル数が無限大へ成長するにつれて、学習されたモデル分布が真の基礎分布へ収束することを証明する。実験により、提案する上界が実際にタイトであることが確認される。

広告