マルチエージェント・コーディネータとしての Gemma 4 E2B:タスク分解、ツール呼び出し、多ターン——うまくいく

Reddit r/LocalLLaMA / 2026/4/3

💬 オピニオンDeveloper Stack & InfrastructureSignals & Early TrendsTools & Practical UsageModels & Research

要点

  • Redditの投稿によると、Gemma 4 E2Bはマルチエージェントの「コーディネータ」として機能でき、目標の分解、タスクグラフの作成、エージェントの割り当て、ツール呼び出し、結果の統合といったエンドツーエンドのワークフローを成功裏に扱える。
  • 著者は、OpenAI互換API経由でOllama環境を用いて(open-multi-agent、TypeScriptの)フレームワークをテストした。このときコーディネータは、依存関係を含むJSONのタスク配列を出力し、各エージェントは(bashコマンドやファイルの読み書きなどの)ツールベースのアクションを実行する。
  • 具体例として、Node.js/npm/OSの情報を収集し、Markdownレポートを/tmp/report.mdに書き出すケースでは、システムが依存するタスクを正しく生成し、ツールを呼び出し、最終的な統合出力を作成できた。
  • 実行モードを2つ比較した。明示的なパイプライン(runTasks)は約80秒で完了し、より自律的な計画アプローチ(runTeam)は、コーディネータによる追加の計画と統合作業のため約3.5分かかった。
  • 指摘されている主な制約は、コーディネータからの厳密でスキーマ準拠のJSON出力が必要な点で、モデルが要求されたフォーマットから逸脱すると失敗要因になりうる。
マルチエージェントのコーディネーターとしてのGemma 4 E2B:タスク分解、ツール呼び出し、多ターン——機能します

Gemma 4 E2Bが、チャットだけでなくマルチエージェント構成でのコーディネーター役を担えるのかを見たかったです。つまり、実際に難しい部分——目標を受け取り、タスクグラフに分解し、エージェントを割り当て、ツールを呼び出して、結果をつなぎ合わせる——です。

短い答え:動きます。自分のフレームワーク open-multi-agent(TypeScript、オープンソース、OpenAI互換API経由でOllama)でテストしました。

コーディネーターがやるべきこと:

  1. 自然言語の目標+エージェント一覧を受け取る
  2. JSONのタスクリストを出力する(タイトル、説明、担当者、依存関係)
  3. 各エージェントはツール呼び出し(bash、ファイルの読み書き)で実行する
  4. コーディネーターが全ての結果を統合する

E2Bに関する簡単な注記:"Effective 2B" — 有効パラメータが2.3B、総パラメータが5.1B。追加の約2.8Bは、140以上の言語/マルチモーダル対応のための埋め込み層です。したがって実際の計算量は2.3Bです。

テストした内容:

次の目標を与えました:

"このマシンのNode.jsのバージョン、npmのバージョン、OS情報を確認し、その後/tmp/report.mdに短いMarkdown要約レポートを書き込む" 

E2Bは正しく:

  • 依存関係(researcher → summarizer)を持つ2つのタスクに分解した
  • それぞれを適切なエージェントに割り当てた
  • bashを使ってシステムコマンドを実行した
  • file_writeを使ってレポートを保存した
  • 最終出力を統合した

runTasks()(明示的なパイプライン)とrunTeam()(モデルが全てを自律的に計画)の両方が動きました。

M1 16GBでの性能:

https://preview.redd.it/y3cs90pbzysg1.png?width=1040&format=png&auto=webp&s=2f8169affe76ea5018fc9fb7e2286e00ead6e224

runTasks()(明示的なパイプライン)は約80秒で完了しました。runTeam()(モデルが全てを計画)は約3.5分——追加の時間は、最後にタスクグラフを計画し、結果を統合するコーディネーターの処理によるものです。モデルはディスク上で7.2GBで、16GBに収まりますが、余裕はあまりありません。

まだe4bや26Bはテストしていません——まず最小のバリアントで下限を探ることにしました。

うまくいった点、そうでない点:

  • JSON出力 — コーディネーターには、タスク分解用の特定のスキーマを生成する必要があります。私の実行ではE2Bはそれを正しく行いました。フレームワークには寛容なパースがあり(まずフェンス付きブロックを試し、次にむき出し配列の抽出にフォールバックする)、それも役立っています。
  • ツール呼び出し — OpenAI互換エンドポイント経由で動作します。呼び出すべきタイミングを正しく判断し、引数をパースし、多ターンの結果も処理します。
  • 出力品質 — 動きますが、2.3Bモデルであることは分かります。タスク分解とツール使用はしっかりしていますが、最終の統合で書かれる文章は、大きめのモデルから得られるものより明らかに弱いです。機能は果たしますが、磨き込まれてはいません。

再現する:

ollama pull gemma4:e2b git clone https://github.com/JackChen-me/open-multi-agent cd open-multi-agent && npm install no_proxy=localhost npx tsx examples/08-gemma4-local.ts 

約190行、完全なソース:examples/08-gemma4-local.ts

no_proxy=localhostはHTTPプロキシを設定している場合にのみ必要です)

投稿者 /u/JackChen02
[リンク] [コメント]