Dao-Fa-Shu-Qi階層におけるAI認知のマッピング
注: 本記事の核心的アイデアと実験的枠組みは、私のAI認知進化の独立した探究に固有のものです。AIは英語表現の軽微な磨き上げのためにのみ使用されました — 研究仮説、未解決の問い、実験設計の思考はすべて私自身のものです。
導入: AIの記憶管理の核心ジレンマ - 抽象化なしの保存
数週間にわたりAI認知システムを実験し、現実世界のタスク実行に大規模言語モデル(LLMs)を用いてきましたが、重要で根本的な欠陥に気づきました。それは、現代のLLMsは本質的に統計的確率モデルであり、出力の論理が入力の一貫性に完全に結びついているということです。入力を安定させれば、出力も予測可能な一貫性を保ちます。これは、固定されたスクリプト化されたタスクには無敵ですが、柔軟な推論と経験学習を要求される少しでも新しい状況に直面したときには、完全に役に立たなくなります。
この欠陥の根本原因は単純です:訓練が終わると、LLMのパラメータと重みは固定されたままです。これらのモデルは新しい対話的体験から認知を更新することができず、過去の実行の失敗や成功を振り返って有意義な教訓を抽出することもできません。要するに、現在のLLMsには静的な訓練メモリしかなく、動的な体験メモリは存在しません — 全てを保存しますが、それから価値ある学びを得ることはありません。
この小さな実験の動機は次のとおりです:経験から抽象化を可能にするAIの記憶管理システムを構築したいと考えています。私の目標は、固定パラメータによって生じる認知的な硬直性を突破し、知的エージェントが人間が自然に行うのと同じことを行えるようにすることです。すなわち、自分の記憶と実践経験から一般的な規則を抽出し、認知的抽象を形成し、そしてそれらの蒸留された規則を新しいタスクや新しい実践シナリオに適用すること。最終的に、このシステムは無脚本・現実世界の作業におけるAIエージェントのタスク完遂率を引き上げることを目的としています。
このシリーズの第一部は、問題を明確に定義することに全て焦点を当てます。伝統的な中国の四階層 Dao-Fa-Shu-Qi 認知階層を用い — これがAIの現在の認知的制約にどれほどよく適合するかに驚かされた — その基礎となるAI記憶管理と経験抽象の論理を展開します。ここでの目標は、現行のAIエージェントが経験から抽象化して学習した規則を新しい実践へ導くことができない正確な理由を特定することです。
第2部では、問題の-framingから実践的な実装へ移ります。この記憶管理システムの三段階の運用プロセスを、 Dao-Fa-Shu-Qi 階層に直接基づいて解説し、設計ロジック全体、段階的な実行計画、およびこのフレームワークを用いた初期の実験的試みを共有します。
Dao-Fa-Shu-Qi階層: AI記憶管理と経験抽象の基盤となる論理
フレームワークの核となる位置づけ
この四階層の認知階層は単なる哲学的概念ではありません — AIにとって、それは記憶管理の四つの異なる抽象次元へと直接対応します。具体的な指示の保存から抽象的規則の蒸留へと進みます。これは、AIエージェントが思考のない具体的操作から、記憶を用いた意図的抽象的推論へと移行するための明確で段階的な道筋を示してくれるからです。
もちろん完全な適合ではありません。階層のより抽象的な層(特に Dao)を、具体的で構築可能なAIシステムに適用する方法をまだ模索しています。しかし、AIの現在の記憶欠陥を診断するためのフレームワークとしては、比類がありません。
4つの層の詳細な説明
各層について、コア概念をAI記憶管理と経験抽象に直接リンクし、それを人間の記憶との対応、該当層におけるAI能力の現状、私たちが直面している核心的ギャップ、および実世界の実用的な例と組み合わせます。この階層はスペクトラムであり、孤立したサイロではありません — 現在のAIがこのスペクトラムを上昇できない理由は、まさに経験から学ぶことができない点にあります。
レベル4: Qi(ツール)
最も具体的で運用的な層 — これは外部ツール呼び出し指示、APIインターフェース、データベースクエリ構文、基本的な実行コードのAIの記憶です。人間にとっては、ツールを使うときの筋肉記憶であり:CLIで docker-compose up を実行する方法や IDE でコードを編集する方法を知っていても、コマンドがなぜ機能するのか、編集の背後にある論理を理解していない状態です。
現状のAIはここで卓越しています — この層は成熟しており、十分に発展しています。LLMsとAIエージェントはツール関連の指示を安定して保存・実行できます。核となるギャップは、判断力の全く欠如です:AIは保存されたツール指示をそのまま実行してしまい、タスクの状況がその指示を不適切または逆効果にする場合でも、それを精査・優先順位付けする能力を持ちません。
レベル3: Shu(技術)
スキル層 — これはAIの特定タスクにおける一歩一歩の実行プロセスの記憶、特定のシナリオでの一般的な落とし穴、そしてそれらの落とし穴への対処法です。人間にとっては、メモリリークのデバッグやロードバランサの設定といった特定の技能を習得することですが、それぞれの実行を他の類似タスクと結びつけずに孤立したイベントとして扱います。
AIはここでも比較的強力です。豊富なスキルライブラリと微調整されたモデルにより、AIは固定シナリオのタスクを高い熟練度で扱えます。しかし核心となるギャップは孤立です:AIはこれらの経験的スキルを切り離された断片として保存し、類似するシナリオ間の共通点を導出したり、それらの教訓を再利用して普遍的で適応力のあるスキルを形成する能力がありません。DockerデプロイメントのスキルはDockerデプロイメントのスキルのままで、決して一般的なデプロイメントスキルにはなりません。
レベル2: Fa(方法)
フレームワーク層 — これはAIの意思決定フレームワーク、標準作業手順(SOP)、および問題全般に対する体系的アプローチの記憶です。人間にとっては、問題解決のためのプロセスです:本番リリース前にステージングでのテストを行い、デバッグの際には変数を1つずつ分離し、重大な変更の前にロールバック計画を構築します。
この階層は現状のAIでは部分的にしか実現されていません。エージェントは事前に設定された意思決定ツリーと静的SOP文書を呼び出すことはできますが、それらのフレームワークの内容は開発時に固定され、進化する仕組みはありません。核心のギャップは受動性です:AIは与えられたFaに従うことしかできず、新しい体験的フィードバックに基づいてそれらの方法を反復・最適化する能力がありません。SOPが想定しない新しい故障モードが現れた場合、AIは次回その故障を防ぐためにフレームワークを更新できません。
レベル1: Dao(原理)
最も抽象的で基盤となる層 — これは、すべてのシナリオを横断する基本的真理、第一原理、そしてメタ認知的ルールの記憶であり、タスクやツールに関係なく意思決定を導くものです。人間にとっては、特定の技能を超える深い直感です:すべての抽象は漏れる、複雑さは信頼性の敵である、変更を分離すると被害範囲が制限される、という理解を、ソフトウェアのデプロイからデータベース移行、組織変革に至るすべての場面に適用します。
この階層は現状のAIではほとんど空白です。LLMsとエージェントはこれらの原理を言われれば知ることはできますが、散在し多様な経験から横断的な核となるルールを独自に発見・抽出することはできません。ここでの核心的ギャップは、複数の見かけ上関連のない経験から高レベルな抽象を行い、跨領域に転用できるメタ認知記憶を形成する能力がAIにはないことです。これは上級の人間エンジニアが持つ“直感”に相当するもので、AIが欠落している最も重要な要素です。
フレームワークの核心結論
高品質な記憶管理は、人間とAIの双方にとって、低層の具体的形態から高層の抽象形態へと記憶を段階的に蒸留し、動的に更新することです。データをただ多く保存することではなく、そのデータを規則へ、規則を原則へと変換することです。これは現状の固定パラメータAIが欠いている核心的な認知能力であり、経験から抽象化し真の認知進化を実現するための最も重要な鍵です。
AI記憶管理の現状: 抽象化能力のない“完璧な保存”
現在のAIの記憶能力を Dao-Fa-Shu-Qi 階層に対応させてみると、状況は厳しく、はっきりとしています:
- Qi/Shu層: ✅ 成熟/強力 — AIはツール指示とシナリオ固有のスキルをほぼ完璧な精度で保存・実行できる。
- Fa層: ⚠️ 静的で反復不能 — AIは事前構築されたフレームワークとSOPを呼び出せるが、新しい経験に基づいて更新・最適化できない。
- Dao層: ❌ ほぼ空白 — 横断的な経験抽象化なし、メタ認知記憶なし、直感的原理ベースの推論なし。
私が最も深く感じるAIメモリ管理の根本的な矛盾はこれです: AIの「完璧な記憶」は実は最大の弱点です。固定されたパラメータと重みのため、そして選択的スクリーニングと蒸留機構が全く欠如しているため、AIはあらゆる相互作用のあらゆる詳細をそのまま大容量で記憶します — しかしそれは単なるむなしいデータ蓄積に過ぎません。取捨選択されない平坦な細部の保持は、信号と雑音を区別する方法をAIに与えず、結果として経験抽象化の核心動機を奪います。
人間は最良の意味で逆向きです: 私たちの記憶は不完全で、有限で、そして過ちを犯します。私たちは「統合-忘却-蒸留」という機構に従います — 過去の経験の取るに足らない細部を薄め、それらの背後にある核となるルールと原理を強化します。この忘却は欠陥ではなく、学習の機構です。AIにおいて人間の忘却をどれだけ模倣するべきか、あるいはそれが本当に正しい道なのかについての良い答えをまだ見つけていません — しかし人間の記憶の不完全さは私たちの抽象化能力を可能にしていることは無視できません。
この実験に対する私の重要な推論は次のとおりです: 経験から抽象化するAIの記憶管理システムを構築することは、AIの記憶をより良く、あるいはより大きくすることではありません。むしろ、AIのための構造化された記憶蒸留と反復の道筋を設計することです。究極の目的は、より多くの記憶容量ではなく、静的な経験記憶を動的な認知進化へと変換し、AIが自らの力で、各新しい経験とともにQiからDaoへと道の階層を上へ進んでいくことです。
Part 1 Summary
ここで、ここに示した全てを要約すると、現在の知能エージェントが経験から学べず、台本のない新規タスクに適応できない本当の理由は、記憶容量の不足ではなく、専用の経験的記憶管理システムの欠如です。これらのエージェントは訓練段階の固定パラメータ記憶だけを持っており、新しい現実世界の経験を「記憶-蒸留-適用」に組み込む組み込みロジックはありません。彼らは自分が行うことを記憶しますが、それから学びません。
Dao-Fa-Shu-Qi 四階層認知階層は、このギャップを埋めるための北極星となっています。低階層のシナリオ固有の経験を、段階的な蒸留を通じて高階層の横断領域の普遍的ルールへと変換する方法を明確化する、明確で階層的なガイドを提供します。完璧な枠組みではありませんが、「AIが経験から学ぶ」という曖昗な目標を、具体的で構築可能なシステムへと変える、私が見つけた最良のものです。
このシリーズの第2部では、理論から実践へ移ります。Dao-Fa-Shu-Qi階層に直接基づくこの記憶管理システムの三段階の実践的プロセスを詳しく説明します — AIエージェントのための日次、週次、月次の記憶蒸留アクションをどのように設計したかを含めて。さらに、全体の実験デザイン、このシステムを構築・検証しようとした初期の試み、そして現在私がまだ取り組んでいる核となる未解決の問題――このフレームワークをAIに実際に機能させるにはどうするかというリアルで難解な課題—を共有します。
実験声明
このAIが経験から抽象化するための記憶管理システムは、AI認知進化への探索的試みに過ぎません。現時点では、このシステムの完全なエンドツーエンドの実装と検証を完了しておらず、その実世界での実際の効果、技術的な導入性、計算コストと効果の費用対効果比はすべて未知です。私はこのシステムがAIの経験抽象化と記憶管理の核となる問題を効果的に解決できると確信していません。
この未完成の枠組みを共有する核心的な意図はシンプルです: 玉を引き寄せるためにレンガを投げる。この検証されていないアイデアが、固定パラメータAIが認知的な硬直を打破し、独立した経験ベースの学習を実現する方法について、AI研究コミュニティに真の思考と議論を喚起できることを願っています — 特に現場でAIエージェントを構築・実験している私たちにとって。さらにこの分野のより多くの研究者、開発者、AI愛好者とアイデアを伝え合い、衝突させ、真のAI認知進化に向けてより実現可能で具体的な方向性を共同で探求することを楽しみにしています。




