要旨: エージェント型の検索拡張生成(RAG)システムは、大規模言語モデル(LLM)が外部の検索ツールとの多段階のやり取りを通じて複雑なタスクを解決できるようにします。しかし、このような多段階のやり取りでは、冗長な検索ステップが含まれることが多く、計算コストとレイテンシが大きくなります。従来の研究では、コストを抑えるために検索の深さ(すなわち、検索ステップ数)を制限してきましたが、これにより複雑な問いが十分に探索されないことがしばしばあります。そこで本研究では、まず検索の深さが精度にどのように影響するかを調べ、質問の複雑さとエージェントの能力によって共同で決まる、精度と効率のトレードオフを定義する最小で十分な検索の深さを見出します。さらに、自己生成した中間回答によって各検索ステップを評価する強化学習(RL)フレームワークであるAutoSearchを提案します。自己回答メカニズムにより、AutoSearchは最小で十分な検索の深さを特定し、それを達成したことに報酬を与えつつ過剰検索には罰を与えることで、効率的な検索を促進します。加えて、複雑な質問に対する検索挙動を安定化し、回答品質を向上させるための報酬メカニズムも導入します。複数のベンチマークに対する大規模な実験により、AutoSearchは優れた精度と効率のトレードオフを達成し、過剰検索を緩和しつつ検索品質を維持できることが示されています。
AutoSearch:強化学習によるエージェント型RAGの効率的探索のための適応的探索深度
arXiv cs.AI / 2026/4/21
📰 ニュースIdeas & Deep AnalysisTools & Practical UsageModels & Research
要点
- エージェント型RAGシステムは、外部検索ツールとの多段階のやり取りによって複雑な課題を解ける一方で、冗長な探索が発生しやすく計算コストと待ち時間が増えがちです。
- 本研究では、探索深度が精度に与える影響を調べ、質問の複雑さとエージェントの能力により決まる「最小十分」探索深度(精度と効率のトレードオフ)を特定します。
- 提案手法AutoSearchは、自己生成した中間回答によって各探索ステップを評価する強化学習(RL)フレームワークです。
- 最小十分な深度に到達したことを報酬で促し、探索し過ぎを罰することで(さらに探索挙動を安定化する報酬設計も追加して)、不要な探索を減らしつつ回答品質を維持します。
- 複数のベンチマークでの実験により、AutoSearchが過剰探索を緩和しながら精度–効率のトレードオフを改善することが示されています。




