要旨: 人工知能の開発に関する支配的な物語は、進歩が連続的であり、能力はモデルサイズとともに単調にスケールすると仮定します。私たちはこの2つの仮定の両方に挑戦します。
進化生物学の離散平衡理論を用いると、AIの発展は滑らかな前進によって進むのではなく、長期の停滞期が急速な位相遷移によって中断され、それが競争環境を再編成することを示します。
1943年以降、このような5つの時代を特定し、現在の生成AI時代には4つのエポックを識別します。
それぞれは、不連続な出来事によって開始されました――トランスフォーマー・アーキテクチャからDeepSeek Momentまで――前のパラダイムを従属させるものでした。
これらの遷移を推進する選択圧を形式化するために、Institutional Fitness Manifold(制度的適応度多様体)を開発します。これは、能力、制度的信頼、手頃さ、主権的適合の4つの次元に沿ってAIシステムを評価する数理的枠組みです。
中心的な結果はInstitutional Scaling Law(制度的スケーリング法則)で、制度的適応度はモデル規模に対して非単調であることを証明します。
環境依存の最適点を超えると、規模をさらに拡大するほど信頼の侵食とコストペナルティが限界的な能力向上を上回り、適応度は低下します。
これは古典的なスケーリング法則と直接矛盾し、強い含意を持ちます。すなわち、より小さく、ドメイン適応型のモデルを統合した組織的システムは、ほとんどの制度的展開環境において、最前線のジェネラリストを数学的に上回る可能性がある、ということです。
これが成立する正式な条件を導出し、最前線の研究室のダイナミクス、訓練後のアライメント進化、そして地政学的な選択圧としての主権AIの台頭という地政学的選択圧を横断する実証的証拠を示します。
人工知能における断続平衡説:制度的スケーリング法則と主権AIの種分化
arXiv cs.AI / 2026/3/17
💬 オピニオンSignals & Early TrendsIdeas & Deep AnalysisModels & Research
要点
- 本論は、AIの進歩が連続的でモデルサイズに単調に結びつくとの見方に挑戦し、断続平衡理論を適用して、AIの発展がトランスフォーマーとDeepSeekモーメントのような不連続な出来事によって引き起こされる時代やエポックの中で展開することを示す。
- 制度的適合性多様体という、能力・制度的信頼・費用の手頃さ・主権的遵守の観点からAIシステムを評価するための枠組みを導入する。
- 制度的スケーリング法則を証明し、制度的適合性がモデルスケールにおいて単調でなく、環境依存の最適点を超えると信頼の喪失とコストペナルティのために低下し得ることを示す。
- 条件次第で、より小さくドメイン適応型のモデルを組織的に統合したシステムが、多くのデプロイメント文脈において最前線の汎用AIを上回る可能性があることを示唆する。
- 前線の研究室ダイナミクス、訓練後の整合性進化、そして主権AIの台頭が地政学的選択圧となることを含む、実証的な裏付けを提供する。




