不均一最適化による「Artificial Jagged Intelligence(AJI)」:能力の集中・再配分・最適化ガバナンス

arXiv cs.AI / 2026/5/5

💬 オピニオンIdeas & Deep AnalysisModels & Research

要点

  • 本論文は「Artificial Jagged Intelligence(AJI)」の形式的理論を提案し、大規模学習システムが局所的に強い能力を示しつつ他領域で脆弱になるのは、学習中の最適化圧の配分が不均一になるためだと主張しています。
  • 学習を、有限予算のプロセスとしてモデル化し、勾配駆動の「更新エネルギー」が能力に関連するパラメータ空間の方向へ配分されることで、能力のギザギザ(不均一)なプロファイルが生じると説明しています。
  • 著者らは能力向上(capability gain)・最適化エネルギー配分(optimization energy share)・ギザギザ度(jaggedness)などの指標を定義し、累積更新エネルギーが集中し続けると能力向上の分散に下限が生じることを示しています。
  • 有限予算のトレードオフ定理により、正の結合や共有構造がない限り、ある能力を優先することが他の能力に機会費用を課し得る理由を理論的に説明しています。
  • エネルギー分散正則化や補助的な構造目的といった介入は、最適化の「場」を再配分して見落とされていた能力を復活させる手段になり得るとしており、将来のギザギザ度やスケーリング挙動に関する検証可能な予測を提示しています。

Abstract

人工ジャギッド・インテリジェンス(Artificial Jagged Intelligence: AJI)とは、大規模な学習システムが他の領域では弱かったり脆かったりする一方で、強い局所的能力を示すという、反復的なパターンを指します。本論文では、AJIを最適化圧力の不均一な配分として捉えるための形式的理論を構築します。学習を、有限の予算のもとで、勾配駆動の更新エネルギーを、能力に関係する方向へパラメータ空間上で配分する過程としてモデル化します。このモデルでは、ジャギッドな能力プロファイルは、知能と呼ばれる単一のスカラー量によるものではなく、目的関数の異方的構造、データの幾何、表現の結合(representational coupling)によって生じることを示します。 本論文では、能力の獲得(capability gain)、最適化エネルギーの取り分(optimization energy share)、ジャギッドさ(jaggedness)を定義し、その後、累積更新エネルギーの持続的な集中が、能力獲得の分散に対する下界をもたらすことを証明します。有限予算のトレードオフ定理は、ある能力を優先することが、正の結合や共有構造がコストを相殺しない限り、他の能力に機会費用を課し得る理由を示します。さらに分析では、エネルギー分散の正則化や補助的な構造目的(auxiliary structural objectives)といった再配分メカニズムを、最適化の場(optimization field)を再形成する介入(interventions)として検討します。 得られた枠組みは、不均一な創発、訓練アーキテクチャ、そして最適化ガバナンス(optimization governance)を結び付けます。これは、更新エネルギーの早期集中が、その後の能力ジャギッドさを予測すべきであること、狭い目的関数のもとでのスケーリングが異方性を必ずしも消し去らないこと、そして明示的に資金が投じられた補助的目的が、見過ごされていた能力を再び活性化し得ることを予測します。したがってAJIは、モデル挙動の不均一さを説明するだけのラベルではなく、有限の最適化資源が、集中し、遅れて現れ、かつ構造的に不均一な能力形成を生み出す仕組みを検証可能な形で示す理論なのです。