広告

風景をなめらかにする:拡散のノイズ除去目的による因果構造学習

arXiv cs.LG / 2026/4/3

📰 ニュースIdeas & Deep AnalysisModels & Research

要点

  • 本論文は、観測データ(ベイズネットワーク/DAGとしてモデル化)から因果構造を学習するために、拡散モデルのノイズ除去スコアマッチングの考え方を適用する DDCD(Denoising Diffusion Causal Discovery)を提案する。
  • 否定の目的(デノージング目的)により勾配をなめらかにでき、その結果 NOTEARS や DAG-GNN といった先行の DAG 学習手法よりも、特に特徴量とサンプルの不均衡がある高次元設定で、より速く安定した収束が実現できると主張する。
  • DDCD は、既存の制約定式化の一部で用いられる行列反転ステップを避けることで計算時間を改善することを目的とした、適応的な k ホップの非循環性制約を追加する。
  • 本手法は合成ベンチマークで競争力のある性能を評価され、さらに 2 つの実世界データセットに対する定性的分析によって補完的に示される。
  • 著者らは、再利用や実験を支援するために公開 GitHub リポジトリによるオープンソース実装を提供している。

要旨: 観測データにおける因果的依存関係を理解することは、意思決定に情報を与えるために重要である。これらの関係はしばしばベイズネットワーク(BN)および有向非巡回グラフ(DAG)としてモデル化される。NOTEARSやDAG-GNNといった既存の手法は、高次元データ、特に特徴量とサンプル数の不均衡がある場合に、しばしばスケーラビリティや安定性の問題に直面する。ここでは、拡散モデルのデノイジング・スコアマッチング目的が、勾配を平滑化し、より速く、より安定した収束を可能にすることを示す。また、行列の逆行列を必要とする既存の解決法に比べて計算時間を改善する適応的kホップ非巡回性制約も提案する。提案する枠組みをDenoising Diffusion Causal Discovery(DDCD)と名付ける。生成型の拡散モデルとは異なり、DDCDはデータを生成するのではなく、逆方向のデノイジング過程を用いてパラメータ化された因果構造を推論する。合成ベンチマークデータにおいて、DDCDの競争力のある性能を示す。さらに、2つの実世界の例に対して定性的解析を行うことで、提案手法が実務的に有用であることを示す。コードはこのURLで利用可能: https://github.com/haozhu233/ddcd.

広告