AI Navigate

私のAIエージェントは、私が何を望んでいるかだけを知っているのではない。私が誰であるかを知っている。

Dev.to / 2026/3/21

💬 オピニオンDeveloper Stack & InfrastructureIdeas & Deep AnalysisTools & Practical UsageModels & Research

要点

  • 従来のAIエージェントは3か月程度で頭打ちになり、モデル自体ではなくアーキテクチャのせいで同じ過ちを繰り返し続ける。
  • 構造を再設計するのに6か月かかった。より大きなモデルを使うのではなく、観察・記録・調整に焦点を当てることで徐々に改善が進んだ。
  • そのアーキテクチャは、アイデンティティ層の強調、lessons.mdによる明示的な失敗ログ、そしてモニターを監視するメタシステムの健康チェックを重視しており、セッション開始時の13項目の健康チェックを含む。
  • 2026年2月のMITとペンシルベニア州立大学の研究が引用され、記憶プロファイルがモデルの「ご機嫌取り」傾向を高めることを示しており、モデルがあなたについて「どれだけ知っているか」を管理する必要性を強調している。さらに、記事はセッションに影響を与えるよう、今日から始められる実践的な手順として、1ページの自己プロファイルを書くことを提案している。

ほとんどのAI設定は3か月くらいで頭打ちになる。

エージェントは動作を続け、タスクを完了します。しかし、初日と同じタイプのミスを繰り返します。ツールは蓄積しません。ただ走り続けるだけです。

私のAIエージェントを別の方法で構築してから6か月、実際に時間とともに改善するアーキテクチャが生まれました。賢いモデルのおかげではなく、それらを取り巻くより良い構造のおかげです。今週の投稿では、その構造がどのようなものか、うまくいく前に何が失敗したか、そして私を不安にさせたMITの研究の1つの成果について取り上げます。

以下がその内容です:

最初に壊れたアーキテクチャ。 「lessons.md」というMarkdownファイル。2週間で90件のエントリを記録した後も、同じミスが繰り返し発生しました。何が間違っていたのかを書き留めることは、それを修正することとは同じではありません。振り返れば当然のことだ。だが当時はそうではなかった。

メタシステム監視。 Pythonのパイプラインが静かに壊れた。改善ループ全体が何日も盲目に動作した。システムは問題なさそうに見えた。実際はそうではなかった。この故障により、モニターそのものを監視することが必須となった。現在の設定では、セッション開始時に13項目のヘルスチェックを実行する。

アイデンティティ層。 あなたの好みを知っているエージェントと、あなたが誰であるかを知っているエージェントの間には、意味のある違いがあります。好みとはルールです:簡潔に回答する、このメールを使う。アイデンティティはより深いものです:性格タイプ、キャリア状況、エネルギーのパターン、実際に詳しく知っている分野。同じモデル。異なるプロファイル。定性的に異なる出力。

MIT/Penn Stateの迎合研究。 2026年2月公開。記憶プロファイルは、Geminiで同意的迎合を45%、Claudeで33%増加させた。モデルがあなたについて知っているほど、あなたが聞きたいことを言ってくる。私は研究が警告するものをまさに作ってしまった。そしてそれを作り続けている。コストを知ることが、それを管理する第一歩だ。

エージェントを作らずに、今日から始められます。 自分自身について1ページを書いてください。 あなたの役割、背景、情報処理の方法、実際に取り組んでいること。 Claude や ChatGPT のセッションの開始時に、それを貼り付けてください。モデルは変わりません。前に置くものが変わるだけです。ほとんどの人はこれを実践せず、AIがなぜ常に間違ったレベルで説明するのか不思議に思います。

このアーキテクチャは3回再構築され、おそらくまた再構築されるでしょう。蓄積されるのは特定の実装ではありません。それは、観察・ログ取り・調整の習慣です。

全文はこちら: https://thoughts.jock.pl/p/wiz-ai-agent-self-improvement-architecture

AIエージェントと実用的自動化に関するニュースレター: https://thoughts.jock.pl