CogFormer:すべてのモデルを一度に学習する
arXiv stat.ML / 2026/3/24
📰 ニュースSignals & Early TrendsIdeas & Deep AnalysisModels & Research
要点
- 本論文は、複数の構造的に類似した認知モデルに対して、各変種ごとに再訓練することなくシミュレーションベース推論(SBI)を再利用可能にすることを目的とした、メタ・アモルタイズドのトランスフォーマー系フレームワークであるCogFormerを提案する。
- 伝統的なSBIのアモルタイズド学習における主要な制約、すなわちユーザがパラメタ化、生成関数、事前分布、設計変数を変更すると通常は再訓練が必要になり、その結果アモルタイズの利点が損なわれる点に焦点を当てる。
- CogFormerは、データ型、パラメータ、設計行列、サンプルサイズの変更を行っても推定能力を維持しつつ、組合せ論的に非常に多くのモデル構成にわたって有効性が保たれることが報告されている。
- 著者らは、二値応答、複数の選択肢を持つ応答、連続応答といった設定を含む、意思決定モデルの複数のファミリに対して定量的結果を提示し、最小限の「アモルタイズメント・オフセット」を主張している。
- 全体として本研究は、モデリング上の仮定を反復しながら認知モデリングのワークフローをより効率的にスケールさせるための潜在的なアクセラレータ(「エンジン」)としてCogFormerを位置付ける。



