あなたが議題の追跡を担当していた、最後の会議を思い出してください。単に参加するだけでなく、流れを自分のものとして掌握すること。すべての話題が取り上げられ、決定が記録され、何も見落とされないようにすること。
では、実際の討議の最中、あなたがどれだけ現在に集中していたかを考えてください。
もしあなたが大多数の人と同じなら、答えは「望んでいたより現実に集中していなかった」です。脳の一部は常に別の場所にあり、時計を見たり、次の話題を先読みしたり、三つ前に誰かが尋ねた質問を忘れていないか確認したりしていました。あなたは同時に二つの仕事をしていました――プロセスを追跡することと作業を行うこと――そしてどちらもその影響を受けました。
これは認知的オーバーヘッドです。タスク自体の難しさではなく、タスクの周りの状態を管理する見えない負担です。私は順序の中でどこにいますか?すでに何が起きましたか?次に何が来ますか?何を覚えておく必要がありますか?
それはあらゆる場所に存在します。外科チームはチェックリストを使います。手術する医師が手術の仕方を忘れるからではなく、複雑な手順を連続して追跡しつつ作業を行うことで注意が危険な分散を招くからです。追跡を外部化すれば、外科医は手術に集中できます。
パターンはシンプルです。追跡を外部化すると、作業を行う役割の人は自分の仕事がうまくなる。賢くなったからではなく、注意を分散させなくなったからです。
同じ問題はAIにも存在する
AI搭載の開発ツールを構築した経験から――AIエージェントが複雑で多段階のワークフローを自律的に処理するようなシステム――最初に気づいたことの一つは、ワークフローの複雑さが増すにつれてエージェントの作業品質が低下するということでした。モデルに能力が欠けているからではなく、プロセス管理に文脈と注意を費やしているからです。
AIエージェントが作業を実行することと、プロセスの進行状況を追跡することの両方を担うと、会議で起こるのと同じことが起きます。現場にいる感覚が薄くなります。文脈は簿記の作業で埋まり――自分がどの段階にいるか、3段階前にユーザーが何と言ったか、今後引き継ぐべき制約は何か――という具合に。モデルはタスクに苦しんでいるのではなく、タスクを管理するオーバーヘッドに苦しんでいます。
これはプロンプト設計の問題ではありません。それはアーキテクチャの問題です。AIモデルのコンテキストウィンドウは有限です。プロセス状態で占有される各トークンは、実際のタスクに使えるトークンではありません。簿記が蓄積するにつれて、コンテキストは汚染されます――より的確でなく、より関連性が低く、より効果が薄くなる。モデルは単に注意散漫になるだけではありません。その作業環境自体が積極的に劣化します。
関心事の分離
私が作成したツールの一つは、これを直接解決します。流れを管理するエンジン――プロセス状態を完全に所有する独立したシステム――です。ワークフローはどこにいますか?次に何が来るのか?すでに何が決定されているのか?フローエンジンがそれらすべてを追跡します。AIが追跡する必要はありません。
実装後、結果は即座に、そして顕著でした。AIはより応答性が高く、より適応的で、よりフォールトトレランスを持つようになりました。ワークフローの途中で予期せぬ事態が起きたとき、それをより適切に処理しました。なぜなら、現在のステップを思い出そうともしなかったからです。目の前の問題の解決に完全に集中できました。
改善はモデル自体とは関係ありません。同じモデル、同じプロンプト、同じ能力。唯一の違いは、AIが注意を向けている対象です。
私が構築したまったく別のシステムにも同じ原理が働いているのを見ます――AI協働者の持続的メモリ層です。AIがセッションを跨いだ文脈を作業メモリに保持しようとして(結果的に失われてしまう)代わりに、システムはその状態を外部化します。過去の決定、進行中のスレッド、関係性の文脈――すべてが関連時に保存・取得され、認知負荷として持ち運ばれることはありません。
二つの非常に異なるツールが、同じ基本的な問題を解決します。状態を外部化して処理能力を作業に活かし、簿記作業を軽減します。
デザイン原理、機能ではない
これは特定のツールや実装の話ではありません。スケールで機能するAIシステムを構築するための設計原理です。
AIワークフローの改善に関する多くの議論は、モデル自体に焦点を当てています。より良いプロンプト、より大きなコンテキストウィンドウ、より賢いモデル。これらは重要ですが、それらはエンジンを最適化する一方で、推進力を妨げる要因を見落としています。
モデルが持つすべての状態は、作業に使えない文脈です。追跡する各プロセスのチェックポイントは、問題からの注意をそらします。モデルの周りのアーキテクチャは、モデル自体と同じくらい重要です。
これはコンテキスト・エンジニアリング――モデルに届く文脈を、無駄なく的確で、現在のタスクに関連するものにする設計、つまり設計原理です。プロンプトに入れるものだけでなく、プロンプトから外すものも重要です。最良の文脈は量ではなく、最も精練された文脈です。
私が今AIシステムを設計するとき、最初に問う質問は「どうやってAIをもっと賢くするか?」ではありません。それは「AIが実際のタスクではないところにどんな注意を費やしているのか?」ということです。とても一般的な答えの一つは状態管理を指します――そして修正はほとんど同じです。これを外部化します。主要なスレッドが運ぶ負荷が少なければ、文脈はより鋭くなり――そして作業はより良くなるのです。」



