TURA: AI検索のためのツール拡張統合取得エージェント
arXiv cs.CL / 2026/3/13
📰 ニュースDeveloper Stack & InfrastructureTools & Practical UsageModels & Research
要点
- 従来のRetrieval-Augmented Generation(RAG)アプローチは、静的なウェブコンテンツに依存しており、リアルタイムデータや動的で構造化されたクエリには対応が難しいと著者らは指摘している。
- TURA は、RAGとツール対応の取得を組み合わせ、静的コンテンツと動的情報の両方にアクセスする3段階のフレームワークを導入する。
- このフレームワークは、Model Context Protocol(MCP)サーバを用いた意図認識型取得モジュール、並列実行のためのDAGベースのタスクプランナー、そして効率的なツール呼び出しを実現する軽量な蒸留エージェント実行エンジンの三要素から成る。
- TURA は、静的 RAG と動的情報源のギャップを橋渡しする世界クラスの AI 検索製品として初めてのアーキテクチャであることを目指す。
大規模言語モデル(LLM)の登場は、検索エンジンを対話型AI検索製品へと変革しており、主にウェブコーパス上でRetrieval-Augmented Generation(RAG)を用いている。しかし、このパラダイムには重大な産業的制約がある。伝統的なRAGアプローチは、リアルタイムのニーズと、動的に生成されるコンテンツへのアクセスを必要とするチケット入手状況や在庫のような構造化クエリには対応が難しい。静的ページのインデックス化に限定された検索エンジンは、時間的にセンシティブなデータに対して必要な対話的クエリを実行できない。学術研究は静的コンテンツ向けのRAGの最適化に焦点を当て、複雑な意図やデータベースやリアルタイムAPIのような動的ソースの必要性を見落としてきた。これらのギャップを埋めるべく、我々はTURA(Tool-Augmented Unified Retrieval Agent for AI Search)を導入する。RAGとエージェント的ツール利用を組み合わせ、静的コンテンツと動的・リアルタイム情報の両方へアクセスする新しい3段階フレームワークである。TURAは三つの主要なコンポーネントを持つ。クエリを分解して情報源をModel Context Protocol(MCP)サーバとしてカプセル化して取得する意図認識型取得モジュール、タスク依存関係を有向非巡回グラフ(DAG)としてモデリングし最適な並列実行を実現するDAGベースのタスクプランナー、そして効率的なツール呼び出しのための軽量な蒸留エージェント実行エンジン。TURAは、静的RAGと動的情報源のギャップを体系的に橋渡しする世界クラスのAI検索製品として初めてのアーキテクチャである。数千万のユーザーにサービスを提供する中で、エージェント志向のフレームワークを活用して堅牢でリアルタイムな回答を提供しつつ、大規模な産業システムの低遅延要求を満たす。




