不均一最適化による「Artificial Jagged Intelligence(AJI)」:能力の集中・再配分・最適化ガバナンス
arXiv cs.AI / 2026/5/5
💬 オピニオンIdeas & Deep AnalysisModels & Research
要点
- 本論文は「Artificial Jagged Intelligence(AJI)」の形式的理論を提案し、大規模学習システムが局所的に強い能力を示しつつ他領域で脆弱になるのは、学習中の最適化圧の配分が不均一になるためだと主張しています。
- 学習を、有限予算のプロセスとしてモデル化し、勾配駆動の「更新エネルギー」が能力に関連するパラメータ空間の方向へ配分されることで、能力のギザギザ(不均一)なプロファイルが生じると説明しています。
- 著者らは能力向上(capability gain)・最適化エネルギー配分(optimization energy share)・ギザギザ度(jaggedness)などの指標を定義し、累積更新エネルギーが集中し続けると能力向上の分散に下限が生じることを示しています。
- 有限予算のトレードオフ定理により、正の結合や共有構造がない限り、ある能力を優先することが他の能力に機会費用を課し得る理由を理論的に説明しています。
- エネルギー分散正則化や補助的な構造目的といった介入は、最適化の「場」を再配分して見落とされていた能力を復活させる手段になり得るとしており、将来のギザギザ度やスケーリング挙動に関する検証可能な予測を提示しています。




