暗黙モデルの表現力:豊かな均衡とテスト時スケーリング
arXiv stat.ML / 2026/4/1
💬 オピニオンSignals & Early TrendsIdeas & Deep AnalysisModels & Research
要点
- 暗黙モデルは、共有された演算子を固定点まで反復することで出力を生成し、実質的に一定のメモリで動作する無限深度かつ重み共有のネットワークとして振る舞う。
- 本論文は、テスト時の計算量を増やすことで、暗黙モデルが明示的モデルに匹敵、あるいはそれを上回り得る理由を扱い、その表現力を厳密な数学的に特徴付ける。
- 広いクラスの暗黙演算子に対して、表現力がテスト時の反復回数に応じて体系的に増大し、より豊かな関数クラスへ近づけることを示す。
- 画像再構成、科学計算、オペレーションズ・リサーチ、LLM推論にまたがる実験では、より多くの反復により写像の複雑さや解の品質が向上する一方で、性能は安定していることが確認される。




