Abstract
私たちは、 extbf{Deep Researcher Agent} を提示します。これはオープンソースのフレームワークであり、大規模言語モデル(LLM)エージェントが24時間体制で自律的に深層学習の実験を遂行できるようにします。論文執筆やコード生成に焦点を当てる既存のAI研究アシスタントとは異なり、私たちのシステムは実験ライフサイクル全体を扱います。すなわち、仮説形成、コード実装、学習実行、結果分析、そして反復的な改良です。このフレームワークは、3つの重要な革新を導入します。(1) extbf{Zero-Cost Monitoring} -- モニタリングのパラダイムとして、モデル学習中にLLM APIコストを一切発生させない仕組みを提供します。これは、プロセスレベルのチェックとログファイルの読み取りのみに依存することで実現します。(2) extbf{Two-Tier Constant-Size Memory} -- メモリの構成を
ightrough 約5K文字に上限しており、実行時間の長さにかかわらず一定です。これにより、長時間稼働するエージェントに付きまとう、コンテキストの無制限な増大を防ぎます。(3) extbf{Minimal-Toolset Leader-Worker Architecture} -- マルチエージェント設計であり、各ワーカー・エージェントには 3--5 個のツールのみを装備します。これにより、1回あたりのトークン・オーバーヘッドを最大 73 extbackslash% 削減します。30日以上に及ぶ継続的なデプロイメントでは、フレームワークは4つの並行する研究プロジェクトにまたがって500回以上の実験サイクルを自律的に完了し、あるプロジェクトでは200回以上の自動実験を通じてベースライン指標よりも52 extbackslash% の改善を達成しました。しかも、平均LLMコストは24時間サイクルあたりわずか 0.08ドルです。コードは https://github.com/Xiangyue-Zhang/auto-deep-researcher-24x7 で公開されています。