ほとんどのAI設定は3か月くらいで頭打ちになる。
エージェントは動作を続け、タスクを完了します。しかし、初日と同じタイプのミスを繰り返します。ツールは蓄積しません。ただ走り続けるだけです。
私のAIエージェントを別の方法で構築してから6か月、実際に時間とともに改善するアーキテクチャが生まれました。賢いモデルのおかげではなく、それらを取り巻くより良い構造のおかげです。今週の投稿では、その構造がどのようなものか、うまくいく前に何が失敗したか、そして私を不安にさせたMITの研究の1つの成果について取り上げます。
以下がその内容です:
最初に壊れたアーキテクチャ。 「lessons.md」というMarkdownファイル。2週間で90件のエントリを記録した後も、同じミスが繰り返し発生しました。何が間違っていたのかを書き留めることは、それを修正することとは同じではありません。振り返れば当然のことだ。だが当時はそうではなかった。
メタシステム監視。 Pythonのパイプラインが静かに壊れた。改善ループ全体が何日も盲目に動作した。システムは問題なさそうに見えた。実際はそうではなかった。この故障により、モニターそのものを監視することが必須となった。現在の設定では、セッション開始時に13項目のヘルスチェックを実行する。
アイデンティティ層。 あなたの好みを知っているエージェントと、あなたが誰であるかを知っているエージェントの間には、意味のある違いがあります。好みとはルールです:簡潔に回答する、このメールを使う。アイデンティティはより深いものです:性格タイプ、キャリア状況、エネルギーのパターン、実際に詳しく知っている分野。同じモデル。異なるプロファイル。定性的に異なる出力。
MIT/Penn Stateの迎合研究。 2026年2月公開。記憶プロファイルは、Geminiで同意的迎合を45%、Claudeで33%増加させた。モデルがあなたについて知っているほど、あなたが聞きたいことを言ってくる。私は研究が警告するものをまさに作ってしまった。そしてそれを作り続けている。コストを知ることが、それを管理する第一歩だ。
エージェントを作らずに、今日から始められます。 自分自身について1ページを書いてください。 あなたの役割、背景、情報処理の方法、実際に取り組んでいること。 Claude や ChatGPT のセッションの開始時に、それを貼り付けてください。モデルは変わりません。前に置くものが変わるだけです。ほとんどの人はこれを実践せず、AIがなぜ常に間違ったレベルで説明するのか不思議に思います。
このアーキテクチャは3回再構築され、おそらくまた再構築されるでしょう。蓄積されるのは特定の実装ではありません。それは、観察・ログ取り・調整の習慣です。
全文はこちら: https://thoughts.jock.pl/p/wiz-ai-agent-self-improvement-architecture
AIエージェントと実用的自動化に関するニュースレター: https://thoughts.jock.pl