7週間「公開」でマルチエージェント・フレームワークを作ってきた話

Reddit r/artificial / 2026/4/23

💬 オピニオンDeveloper Stack & InfrastructureTools & Practical UsageModels & Research

要点

  • 著者は約7週間、Claude Codeを使いながらAIPassを開発しており、その進捗を公開しながら取り組みを共有している。
  • AIPassはローカルCLI上で動くAIエージェント向けの枠組みで、エージェントが同じワークスペースとファイルシステムを共有することで、永続的なアイデンティティ・メモリ・相互通信を提供する。
  • 複数エージェント環境での調整(コーディネーション)課題を、サンドボックス分離を避けて解決しようとしており、あるエージェントの成果(例:コミット)を他のエージェントが参照できるようにする。
  • 現在の到達点は、11エージェント、4,000件以上のテスト、400件以上のPRで、Claude Code・Codex・Gemini CLIに対応しておりPyPIで利用できる。
  • 「watchdog」という最近の追加機能により、エージェントへ仕事を投げた後にそのプロセスを監視し、成功・クラッシュを含めて完了時にユーザーへ通知できるようになった。

このリポジトリを初日から公開で作り続けていて、Claude Codeでほぼ7週間です。現状はこんな感じ。すごくいい手応えです。ここまで近づけると気持ちがいいですね。

要するに:AIPassはローカルCLIのフレームワークで、AIエージェントに永続的なアイデンティティ、メモリ、そして通信が備わります。同じファイルシステム、同じプロジェクト、同じファイルを共有します。サンドボックスも分離もありません。pip install aipass、コマンドを2つ実行すれば、エージェントは明日になっても引き継ぎます。

価値を得るのに11個のエージェントは不要です。永続メモリを備えた1つのエージェントを1つのプロジェクトで使うだけで、体験はすでに別物です。次の日に戻って「やあ」と言えば、何に取り組んでいたか、何が壊れたか、計画はどうだったかを覚えています。再説明は不要。その時点でインストールする価値があります。

私が実際に解決しようとしていたこと:AIはもうすでに物事を覚えられるようになっています。うまくいく構成もあれば、ゴミな構成もあります。そこは対処済みでした。対処できていなかったのは、私が複数のエージェントのコーディネーターになることでした。ツール間でコンテキストをコピーする、誰が何をやっているかを追跡する、作業を手動でディスパッチする。私は、そのワークフローをつなぎ留める「糊」になっていました。ほとんどのマルチエージェントフレームワークはエージェントを並列で動かしますが、すべてのエージェントをそれぞれ個別のサンドボックスに隔離します。あるエージェントは、別のエージェントが直前に作ったものを見られません。そんなのはチームではありません。

それは、ヘッドホンをつけた人が部屋にいるのと同じです。

そこで核となるアイデア:エージェントにアイデンティティファイル、セッション履歴、協業のパターンを渡す。つまり、.trinity/ディレクトリ内の3つのJSONファイルです。プレーンテキストで、git diffできて、データベースは使いません。ですが本当のポイントは、ワークスペースを共有することです。あるエージェントは、別のエージェントが直前にコミットした内容を見られます。メッセージはローカルのメールボックス経由で互いに送ります。チームとして動くことも、一人で動くこともできます。プロジェクト、パーティープラン、ジャーナル、趣味、学校の課題、開発の作業――文字通り、思いつくあらゆるものに対して、あなたを助けるエージェントを1つだけ用意すればいい。あるいは大きくいって、50人のエージェントで火星行きのロケットを作るとかね(笑)。ジェフ・イーロン的なやつ。

コマンドルーター(drone)があるので、1つのコマンドがどのエージェントにも届きます。

pip install aipass

aipass init

aipass init agent my-agent

cd my-agent

claude codex でも gemini でも、だいたい claude code を今テストしています

現状:エージェント11、テスト4000+、PR400+(知ってます)、すべてのブランチで自動品質チェック。Claude Code、Codex、Gemini CLIに対応しています。PyPIに載せています。今夜は新しいテストプロジェクトを作って、3つのエージェントを立ち上げ、実際のユーザー視点でそれぞれのサービスを全部テストさせました――エージェント間のメール、計画作成、メモリ書き込み、ベクトル検索、gitコミット。多くのことはそのまま動きました。見つけたバグは、フレームワークが外部プロジェクトを、自分自身と同じやり方でモニタリングしていないことに関するものでした。まさに、自分のドッグフードを食べることでしか気づけない種類のやつです。

最近追加してかなり満足しているのが watchdog です。エージェントに作業をディスパッチすると、以前はただ……終わるのを祈るしかありませんでした。今はwatchdogがエージェントのプロセスを監視し、完了したら知らせてくれます。成功した場合も、クラッシュした場合も、黙って完了せずに終了した場合も同様です。エージェントを監視して面倒を見るのと、別のことをしながら実際に任せて信頼するのの違いです。5つのハンドラ、130件のテストで、怪しいbashのワンライナーを置き換えました。

近日公開:オンボーディング用のエージェント。新しいユーザーに対してセットアップを対話的に案内します――システムチェック、最初のエージェント作成、ガイド付きツアー。機能は完成済みで、最終テスト段階に入っています。加えて、READMEの自動更新にも取り組んでいて、エージェントが「言われなくても」自分たちのドキュメントを最新に保てるようにします。

私はソロ開発ですが、すべてのPRが人間- AIのコラボレーションです。エージェントが自分自身を作り、保守するのを手伝います。105セッションを重ねた今、フレームワークはほぼそれ自体が最良のテストケースになっています。

https://github.com/AIOSAI/AIPass

submitted by /u/Input-X
[link] [comments]