ローカルLLM上でのマルチエージェントループの安定化(スーパーバイザ+懐疑者の課題)

Reddit r/LocalLLaMA / 2026/3/25

💬 オピニオンDeveloper Stack & InfrastructureIdeas & Deep AnalysisTools & Practical Usage

要点

  • 著者は、ワンショット回答を超えるためのローカル実行型のマルチエージェントループについて説明している。構成は、スーパーバイザ、検索エージェント、コード(Dockerサンドボックス上のPython)エージェント、分析エージェント、懐疑者/無効化エージェントから成る。
  • 初期の調査結果では、このセットアップは、重いウェブ検索よりもコードや推論に比重がある「研究風」のタスクでより良好に機能することが示唆されている。
  • 主な不安定性の問題として、スーパーバイザが「疑念ループ」に陥ってしまうことがあるほか、十分でない回答のまま早期に終了してしまう場合がある。また、懐疑者エージェントの比重が大きすぎることで、不必要な手戻りが発生する点も挙げられる。
  • 著者は、エージェントのルーティングがプロンプトに非常に敏感であり、それが全体の信頼性と一貫性に影響することを述べている。
  • 関連するGitHubリポジトリを共有し、ローカルなマルチエージェントのワークフローを安定させるために、パイプラインやエージェント設計の改善に関する提案をコミュニティに求めている。

こんにちは r/LocalLLaMA,

小さめのモデルがワンショットの回答を超えてどこまでやれるかを見たくて、ローカルでマルチエージェントのループを試験的に動かしていました。

新しい大きなアイデアというわけではなく、最近似たような構成はいくつもあります。ただ、私は一人でこれを作っていて比較メモを取りたいので、自分の結果を共有します。

構成はだいたい次の通りです:

  • スーパーバイザー(次に動かすエージェントを決める)
  • 検索エージェント(DDG / arXiv / wiki)
  • コードエージェント(Docker のサンドボックス内で Python を実行)
  • 分析エージェント
  • 懐疑エージェント(結果を無効化しようとする)

これまでで面白い点:

実際のところ、システムが重いウェブ検索よりもコード+推論により多く依存する「研究系のタスク」のほうがうまくいっています。

ただ、まだいくつか粗いところがあります:

  • スーパーバイザーが「疑いループ」にハマってルーティングし続けてしまうことがある
  • 弱い回答で早すぎる段階で終了してしまうことがある
  • 懐疑エージェントの重み付けが過大になりがち -> 不必要な作業のやり直し
  • ルーティングは全般的にプロンプトへの感度がかなり高い

結論としては: まあまあの結果は出ますが、まだあまり安定していません。

掘り下げたい人向けのリポジトリ:

https://github.com/Evidion-AI/EvidionAI

それで、パイプラインやエージェントの観点で、改善/開発の選択肢は何かあるのかなと考えています。

submitted by /u/Top-Composer7331
[link] [comments]