Intelligence Inertia:物理原理と応用

arXiv cs.AI / 2026/3/25

💬 オピニオンSignals & Early TrendsIdeas & Deep AnalysisModels & Research

要点

  • 本論文は、ランデアの原理とフィッシャー情報が、複雑な再構成の下で、特にルールが疎な制約下では、記号的な解釈可能性を維持することに伴う真の熱力学的/計算コストをそれほど正確には近似できない、と主張する。
  • 「インテリジェンス・イナーシャ(intelligence inertia)」という概念を導入し、ルールと状態の間に存在する基礎的な非可換性によって、適応コストが(しばしば)超線形、時には爆発的になることを説明する。
  • 著者らは、相対論的ローレンツ因子のような振る舞いを示す非線形の「計算上の壁(computational wall)」コスト式を導出し、静的な情報理論モデルが見落とす、J字型(相対論的)なインフレーション(増大)曲線を得る。
  • 検証は3つの実験で追求される。すなわち、J字曲線をフィッシャーに基づくモデルと比較すること、「ニューラルアーキテクチャ進化」の“Zig-Zag(ジグザグ)”な幾何学的構造を解析すること、そしてエージェントの変化への抵抗を考慮して学習の非効率を抑える、慣性を意識したスケジューラのラッパーをテストすること、である。
  • 全体として本研究は、知的エージェントにおける構造適応と解釈可能性維持に関するオーバーヘッドを、第一原理に基づく物理的な枠組みとして提案する。

Abstract

ランダウアーの原理は情報消去に関する基本的な熱力学的下限を定め、フィッシャー情報はパラメータ空間における局所的な曲率の尺度を与えるものの、これらの古典的枠組みは、規則に対する制約がまばらな領域における近似としてのみ有効に機能します。高度な知的システムの再構成に際して記号的な解釈可能性を維持する際に発生する、超線形であり、しばしば爆発的でもある計算コストおよびエネルギーコストを説明できません。本論文では、知能の慣性(intelligence inertia)という性質と、その背後にある物理原理を、知能の計算的負荷を定量化するための基礎的特性として導入します。本現象は単なる経験的観察ではなく、規則と状態のあいだに存在する基本的な非可換性に由来すること、そしてその根本原因を我々が厳密な数学的枠組みに形式化して整理したことを示します。実際の適応コストと静的な情報理論的見積もりの間で拡大する不一致を解析することで、ローレンツ因子を模した非線形のコスト式を導出し、相対論的なJ字型のインフレーション曲線—静的モデルが見落とす「計算の壁」—を特徴づけます。これらの物理原理の妥当性は、決定的な3つの実験によって検証します:(1) このJ字型インフレーションを古典的なフィッシャー情報モデルと比較して裁定すること、(2) ニューラルアーキテクチャ進化の「ジグザグ(Zig-Zag)」軌道に対する幾何学的解析、(3) エージェントの物理的な変化抵抗を尊重することで深層ネットワークの学習を最適化する、慣性を考慮したスケジューラ・ラッパーの実装です。得られた結果は、構造的適応のコストに対する統一的な物理的記述を示唆しており、知的エージェントにおける計算コストと解釈可能性維持のオーバーヘッドを、第一原理に基づいて説明するものとなっています。