抄録: 連続時間のイベント系列であり、イベントが不規則な間隔で発生するものは、産業から科学まで幅広い領域にわたって広く見られます。現在のモデリングのパラダイムは、このようなデータを時間的点過程の実現(realizations)として扱うことです。そして機械学習においては、時間的点過程を、ニューラルネットワークを用いて自己回帰的(autoregressive)な形でモデル化することが一般的です。自己回帰モデルは、単一の次のイベントの時刻を予測することには成功していますが、より長い予測ホライズンでは、誤差の連鎖(cascading errors)や近視的な予測(myopic predictions)によって性能が低下し得ます。本研究では、時間的点過程のための非自己回帰(non-autoregressive)生成モデルであるEventFlowを提案します。このモデルはフローマッチング(flow matching)フレームワークに基づき、自己回帰過程を迂回して、イベント時刻に関する同時分布(joint distributions)を直接学習します。EventFlowは実装が簡単で、標準的なTPPベンチマークにおいて、最も近いベースラインに比べて予測誤差を20%〜53%低減することを達成しつつ、サンプリング時に必要なモデル呼び出し回数も同時に少なくします。
EventFlow:フローマッチングによる時間点過程の予測
arXiv stat.ML / 2026/4/7
💬 オピニオンIdeas & Deep AnalysisModels & Research
要点
- EventFlowは、連続時間のイベント系列(不規則な時点で発生するデータ)を時間点過程(TPP)として扱い、将来の時点をより安定に予測するノンオートレグレッシブな生成モデルを提案しています。
- 従来のオートレグレッシブ手法の「誤差のカスケード」や「先読み不足」による長期ホライズン性能低下を避けるため、フロー・マッチングを基にイベント時刻の同時分布を直接学習します。
- 実装がシンプルで、標準的なTPPベンチマークで最良のベースラインに対して予測誤差を20%〜53%低減しつつ、サンプリング時のモデル呼び出し回数も削減できると報告されています。
- この研究は、時間点過程の長期予測を“逐次生成”ではなく“同時分布学習”で改善する設計指針として、ML側のモデル設計に示唆を与えます。


