エージェント型コンパイル:最小推論コストのWeb自動化のためのLLM「再実行危機」緩和
arXiv cs.AI / 2026/5/1
💬 オピニオンDeveloper Stack & InfrastructureTools & Practical UsageModels & Research
要点
- 連続推論ループでブラウザ状態を評価し続けるLLM駆動Webエージェントには、実行頻度に応じてトークン消費とAPI遅延が概ね線形に増える根本的なスケーラビリティ制約があり、論文はこれを「再実行危機(Rerun Crisis)」と定義しています。
- LLMの推論とブラウザ実行を切り離すCompile-and-Executeアーキテクチャを提案し、DOMを意味的に表現したトークン効率の良い入力をDSM経由で1回のLLM呼び出しで処理して、決定的なJSONの「ワークフローブループリント」を生成した後、軽量ランタイムで実行します。
- 推論コストのスケーリングはO(M×N)から償却O(1)へと削減され、5ステップのワークフローを500回繰り返すケースで、連続エージェントでは約150ドルだったものが(強力なキャッシュ前提でも)1ワークフローあたり0.10ドル未満になります。
- データ抽出、フォーム入力、フィンガープリンティングの各タスクで、ゼロショットのコンパイル成功率が80–94%であることを示し、JSONへの最小限のHuman-in-the-Loop(HITL)パッチにより実行信頼性をほぼ100%まで高められるとしています。
- 5つのフロンティアモデルに対して1回のコンパイルあたりのコストは0.002〜0.092ドルで、連続型エージェントに比べて大規模かつ経済的なWeb自動化を可能にする「決定的コンパイル」というパラダイムを示唆しています。




