AIハードウェアを再考する:自律エージェントのための三層認知アーキテクチャ

arXiv cs.AI / 2026/4/16

💬 オピニオンSignals & Early TrendsIdeas & Deep AnalysisModels & Research

要点

  • 本論文は、次世代の自律AIの性能は、モデルの生の能力だけでなく、不均質なハードウェア上で知能をどのように構造化するかによっても大きく制約されると主張する。
  • 計画、推論、実行を、それぞれ別の計算基盤に分離し、非同期メッセージバスによって調整する「Tri-Spirit(3層)認知アーキテクチャ」を提案する。
  • この枠組みには、ルーティング方針、反復される推論をゼロ推論(推論コスト不要)の実行へと変換する習慣コンパイル機構、収束型メモリモデル、明示的な安全制約が含まれる。
  • 2,000件の合成タスクによるシミュレーションにおいて、Tri-Spiritはクラウド中心およびエッジのみのベースラインに比べて大幅な効率改善を達成した。具体的には、レイテンシを75.6%低減し、エネルギー使用量を71.1%低減した。
  • さらに、LLM呼び出しを30%削減し、オフライン完了率を77.6%まで向上させた。これは、認知の分解が、モデルのスケーリングを超えてシステム全体の効率を高める重要な要因になり得ることを示唆している。

Abstract

次世代の自律型AIシステムは、モデルの能力だけでなく、不均一なハードウェア上で知能がどのように構造化されるかによって制約を受けることになります。現在のパラダイム――クラウド中心のAI、オンデバイス推論、エッジ・クラウドのパイプライン――では、計画、推論、実行を単一のプロセスとして扱うため、不必要なレイテンシ、エネルギー消費、そして行動の連続性の断片化が生じます。本論文では、Tri-Spiritアーキテクチャを提案します。これは、知能を3層の認知フレームワークに分解するものであり、計画(Super Layer)、推論(Agent Layer)、実行(Reflex Layer)をそれぞれ、別個の計算基盤へ対応付け、非同期メッセージバスを介して協調させます。また、パラメータ化されたルーティング方針、反復される推論経路を推論ゼロの実行方針へと昇格させる習慣コンパイル機構、収束するメモリモデル、明示的な安全制約によってシステムを形式化します。提案アーキテクチャは、クラウド中心およびエッジのみのベースラインに対して、2000件の合成タスクを用いた再現可能なシミュレーションで評価します。Tri-Spiritは、平均タスクレイテンシを75.6パーセント、エネルギー消費を71.1パーセント削減し、さらにLLM呼び出しを30パーセント減らし、77.6パーセントのオフラインでのタスク完了を可能にします。これらの結果は、モデルのスケーリングだけでなく、認知の分解がAIハードウェアにおけるシステム全体の効率性の主要な駆動要因であることを示唆しています。