Hive:アルゴリズム段階とタスク段階のスケーリングを可能にするマルチエージェント基盤

arXiv cs.AI / 2026/4/21

📰 ニュースDeveloper Stack & InfrastructureModels & Research

要点

  • 本論文は、LLMのスケーリングがモデル段階・システム段階の改善に偏っている一方で、アルゴリズム段階(推論時の追加計算)やタスク段階(複数エージェントへの分解・委譲)でのスケーリングは十分に扱われていないと指摘しています。
  • それを踏まえ、Hiveはエージェントごとの振る舞いを記述するフロントエンドと、テスト時スケーリング手法を支える仕組みを備えたマルチエージェント基盤として提案されています。
  • Hiveのバックエンドには、冗長なサンプリング分岐にまたがって中間のlogitsを再利用し、分岐間の重複計算(cross-path redundancy)を抑えるLogits Cacheが含まれます。
  • さらに、各エージェントの貢献度に応じて計算資源とKVキャッシュ資源を配分するAgent-Aware Schedulingを導入し、タスク段階の並列効率を高めます。
  • 実験では、Logits Cacheがリサンプリングで1.11×〜1.76×の速度向上を達成し、Agent-Aware Schedulingがホットスポットのミス率を33%〜51%削減したと報告されています。

Abstract

大規模言語モデルは、タスクの複雑さに応じてスケールする複雑なエージェント型システムとしてますます導入が進んでいます。先行研究ではモデルレベルおよびシステムレベルのスケーリングが広く検討されている一方で、アルゴリズムレベルおよびタスクレベルのスケーリングは、ほとんど未解決のままです。これが、エージェント型システムの可能性を十分に引き出すことを制約しています。アルゴリズムレベルでは、推論時の追加計算を割り当てることでワークフローの処理能力を高められる一方、経路間の冗長性が生じます。すなわち、複数の推論ブランチにわたって計算が重複し、冗長になるのです。タスクレベルでは、複雑なタスクをサブ問題に分解し、複数のエージェントに委譲することで、スケーラビリティと並列性を向上できます。しかし、既存のインフラストラクチャのスケジューリングは複数のエージェントの存在を認識していないため、リソース配分を最適化する機会を逃しています。 我々は、アルゴリズムレベルおよびタスクレベルのスケーリングを可能にするマルチエージェント基盤であるHiveを提案します。Hiveには、エージェントごとの振る舞いを捉える記述フロントエンドがあり、テスト時スケーリングアルゴリズムをサポートします。この仕様を活用して、バックエンドは2つの主要なメカニズムを導入します。アルゴリズムレベルでの経路間冗長性を緩和するために、冗長なサンプリング経路にまたがって中間のlogitsを再利用するLogits Cacheと、タスクレベルでエージェントの貢献に応じて計算およびKV-cacheリソースを効率的に割り当てるAgent-Aware Schedulingです。実験の結果、Logits Cacheは再サンプリングにおいて平均で1.11 imes1.76 imesの高速化を達成し、Agent-Aware Schedulingはホットスポットのミス率を3351低減することが示されました。