生物学的アーキテクチャを備えたローカルAIエージェントシステムを構築 — MacBook M4でのオープンソースベンチマーク98/100を達成

Reddit r/LocalLLaMA / 2026/3/14

📰 ニュースDeveloper Stack & InfrastructureTools & Practical UsageModels & Research

要点

  • 複数のエージェントが逐次通信する代わりに、並列に機能する専門ニューロンを備えた単一の脳を用いる新しいAIエージェントアーキテクチャを紹介します。
  • アーキテクチャは、タスク分類とモデルルーティングを担当する Cortex、専門ユニット(プログラマー、デザイナー、データベース、アナリスト、研究者)としての Neurons、RAMとしての Hippocampus、SQLiteを用いた長期記憶の Cortex-memory、バックグラウンドで継続動作する Heartbeat、通信手段としての Channels(端末、API、Telegram)から構成されます。
  • モデルルーティングは専用モデルによって自動的に処理されます:routing 用に qwen2.5:0.5b(常時作動、約200トークン/秒)、オーケストレーション用に qwen2.5:1.5b、コード/DB/UIニューロン用に qwen2.5-coder:7b、推論と分析用に qwen2.5:14b。
  • MacBook Pro M4(24GB)でのベンチマークは、単純な応答で345ms、3ニューロンの並列タスクで約40秒、12タスクで総合98/100。APIコストなし、クラウドなし。すべて Ollama 上でローカル実行です。
  • 著者は近い将来、エージェントシステムとベンチマークの両方を追加機能を備えた完全版としてオープンソース化する予定で、質問を歓迎します。準備が整い次第、ここに投稿します。アーキテクチャに関する質問には喜んでお答えします。

私はAIエージェントには別のアプローチに取り組んできました。

複数のエージェントが互いに順次対話する代わりに、

タスクに応じて並列に活性化する専門ニューロンを備えた1つの脳です。

アーキテクチャは以下の通り:

- Cortex → タスク分類とモデルルーティングを担当

- Neurons → 専門ユニット(プログラマー、デザイナー、データベース、アナリスト、研究者)

- Hippocampus → RAM内の短期記憶

- Cortex-memory → SQLiteによる長期記憶

- Heartbeat → バックグラウンドで常時動作する自律的パルス

- Channels → 通信手段(端末、API、Telegram)

モデルルーティングは自動です:

- routing 用に qwen2.5:0.5b(常時作動、約200トークン/秒)

- オーケストレーション用に qwen2.5:1.5b

- コード/DB/UIニューロン用に qwen2.5-coder:7b

- 推論と分析用に qwen2.5:14b

MacBook Pro M4(24GB)でのベンチマーク結果:

- 単純な応答で345ms

- 3ニューロンの並列タスク(フロントエンド + バックエンド + データベースを同時に処理)で約40秒

- 5レベルにまたがる12タスクで総合98/100

APIコストなし。クラウドなし。すべてローカルの Ollama で動作します。

エージェントシステムとベンチマークの両方は、近い将来、より完成度の高い追加機能を備えた状態で完全にオープンソース化されます。

準備が整い次第、ここに投稿します。

アーキテクチャに関する質問には喜んでお答えします。

投稿者 /u/Kevin_Neamt
[リンク] [コメント]