| エージェント・スウォームに対してコンティニュアス・バッチングを使うことで、実際にリサーチの時間をぶっ殺せます。intel b70 32gb のそのカードで qwen 27b の性能を見つけました。1対1でチャットするだけだと、 平均プロンプトスループット:85.4 tokens/s 平均生成スループット:13.4 tokens/s 50タスク(51200入力トークン、25600生成)をやるのに、あなたの人生の42分かかります。 やるべきはエージェント・スウォームです。1つのオーケストレーターと49人のエージェントが同時に全部動くことで、GPUは同じバッチ内のあらゆるプロンプトを飲み込みます。総電力は1秒あたり1100トークンに到達。 素早い計算: 単一ユーザー:42分 エージェント・スウォーム:70秒 最初の単語が出るまで約11秒待ちますが、プロジェクト全体は42分ではなく70秒で終わります。これはリサーチにとって非常に大きなスピードブーストです。AIと喋るのをやめて、バッチ処理を始めましょう。 出典: https://forum.level1techs.com/t/intel-b70-launch-unboxed-and-tested/247873 :( でもこのオーケストレーターとサブエージェントの仕組みをどうやって手に入れるのか分かりません。たぶんopen clawなら動くかもしれないけど、わかりません ¯\_(ツ)_/¯ 。誰かがこれをやっているなら、ワークフローを共有してください。 編集:たぶん https://github.com/NousResearch/hermes-agent ができる
[link] [comments] |
エージェント・スウォームに対してコンティニュアス・バッチングを使うことで、調査やコーディングにかかる時間を大幅に短縮できる
Reddit r/LocalLLaMA / 2026/4/6
💬 オピニオンDeveloper Stack & InfrastructureSignals & Early TrendsIdeas & Deep AnalysisTools & Practical Usage
要点
- Redditの投稿によると、「エージェント・スウォーム」にコンティニュアス・バッチングを使うことで、調査やコーディングの完了までの時間を大幅に短縮できる(例として、あるワークロードでは42分の実行が約70秒に短縮されたとされる)。
- 提案されている構成は、1つのオーケストレータと多数の並列エージェントを用い、GPUが大きな共有バッチとしてプロンプトを処理できるようにすることで、1対1のチャットより全体のスループットを向上させる。
- Intel B70(32GB)上でのQwen 27Bワークロードに関する報告では、タスクを並列化することで、最初のトークンにおいていくらかの初期レイテンシが発生する代わりに、集計ベースのスループットが高まることが強調されている。
- 著者はオープンソースのエージェント・フレームワーク(NousResearch/hermes-agentを引用)を通じた実装アプローチ(または出発点)を提案しているが、オーケストレータ/サブエージェントのワークフローをエンドツーエンドでどう組み上げるかについては不確実性があると述べている。
- 投稿はこれをワークフローの変更として位置づけており、「対話的に話し続ける」のをやめて、ツールを使う/調査するサブタスクを多数まとめてバッチ処理し、ハードウェアをより効果的に活用するべきだと論じている。




