Googleは月曜日、同プロダクトの登場以来で最大の、自律型リサーチエージェント機能のアップグレードを発表し、新たに2つのエージェント — Deep Research と Deep Research Max — をローンチした。これらは初めて、単一のAPI呼び出しで、オープンなWebデータと独自のエンタープライズ情報を開発者が統合できるようにするほか、リサーチレポート内でネイティブなチャートやインフォグラフィックスを生成し、Model Context Protocol(MCP)を通じて任意のサードパーティデータソースに接続できる。
今回のリリースは、GoogleのGemini 3.1 Proモデルを土台にしており、人間のアナリストの作業時間としてこれまで数時間、数日を要してきたような、網羅的で複数ソースにまたがるリサーチをAIが自律的に実行できるシステムを作ろうとする競争が急速に激化する中で、一つの転機を示すものだ。あわせて、Googleが自身のAIインフラを、金融・ライフサイエンス・マーケットインテリジェンスにおけるエンタープライズのリサーチ業務フローの中核として位置づけるための、これまでで最も明確な打ち出しでもある。情報を誤ることのリスクが非常に高い業界だ。
GoogleのCEO Sundar PichaiはXで、「Deep ResearchをGemini APIで、今は品質向上、MCP対応、そしてネイティブなチャート/インフォグラフィックス生成を備えた形で、2つの強力なアップデートとして提供を開始します」と書いた。さらに、「速度と効率を重視するならDeep Researchを使い、高い品質の文脈収集&統合を拡張したテスト時コンピュートで行いたいならMaxを使ってください。DeepSearchQAで93.3%、HLEで54.6%を達成しています」と続けた。
2つのエージェントはいずれも本日から、有料プランのGemini API経由で、公開プレビューとして利用可能になる。Googleが2025年12月に最初に導入したInteractions APIを通じてアクセスできる。
なぜGoogleは1つではなく2つのリサーチエージェントを作ったのか
今回のローンチは、AIエージェント設計における根本的な緊張関係を反映した段階的なアーキテクチャを導入する。それは、スピードと徹底性のトレードオフだ。
Deep Researchは標準ティアで、Googleが12月にリリースしたプレビュー用エージェントに置き換わり、低遅延のインタラクティブなユースケース向けに最適化されている。同社は、前身と比べてより高い品質レベルにおいて「遅延とコストが大幅に低減された」と説明している。開発者が、ユーザー向けインターフェースにリサーチ機能を直接組み込めるようなアプリケーションに最適だとしており、たとえば金融ダッシュボードのように、複雑な分析的問いに対してほぼリアルタイムで答えられるケースが想定される。
Deep Research Maxは、その対極に位置する。拡張したテスト時コンピュートを活用する。これは、モデルが最終レポートを提供する前に、推論・探索・出力の改善を反復しながら、より多くの計算サイクルを費やす手法だ。Googleはこれを非同期のバックグラウンド処理用に設計した。たとえば、アナリストチームがオフィスを出る前にデューデリジェンスのレポート一括バッチを立ち上げ、翌朝までに、徹底的で出典付きの分析が待っていることを期待するようなタスクだ。
Google DeepMindチームはXで、その違いを次のように整理した。「Deep Research:速度と効率に最適化。より素早い応答が必要なインタラクティブアプリに最適。Deep Research Max:検索と推論に余分な時間を使う。網羅的な文脈収集や、バックグラウンドで進むタスクに理想的です。」
「Deep Researchは私たちがAPIで最初に提供したホスト型エージェントで、過去3か月の間に大きな牽引を得ています。新しいエージェントとすべての改善を皆さんに試してもらうのがとても楽しみです。これは、私たちのエージェントの旅の始まりにすぎません」と、GoogleのAI取り組みにおける開発者リレーションを率いるLogan KilpatrickがXに書き込んだ。
MCP対応により、エージェントが初めてプライベートなエンタープライズデータにアクセスできる
おそらく今日のリリースで最も重大な機能は、Model Context Protocol対応の追加だ。これによりDeep Researchは、洗練されたWebリサーチツールから、より「万能なデータアナリスト」に近い存在へと変わる。
AIモデルを外部データソースに接続するための新たなオープン標準であるMCPによって、Deep Researchは機密情報をその情報源となる環境の外へ出さずに、プライベートなデータベース、社内のドキュメントリポジトリ、専門特化したサードパーティのデータサービスを安全にクエリできる。実務的には、たとえばヘッジファンドがDeep Researchに対して、社内のディールフローデータベースと金融データ端末を同時に参照させ、そのうえでエージェントに、Web上で公開されている情報も含めて両方からの洞察を統合させる、ということが可能になる。
Googleは、FactSet、S&P、そしてPitchBookのMCPサーバー設計について、現在も共同で取り組んでいることを明らかにした。これは同社が、ウォール街や幅広い金融サービス業界がすでに日々依存しているデータ提供者との深い統合を進めているというシグナルだ。Google DeepMindのプロダクトマネージャーであるLukas HaasとSrinivas Tadepalliが執筆したブログ記事によれば、その狙いは「共有顧客が、Deep Researchで動くワークフローに自社の金融データ提供を統合できるようにし、また、自社の網羅的なデータ領域を途方もなく速いスピードで用いて文脈を収集することで、生産性の飛躍を実現できるようにすること」だ。
これは、エンタープライズAI導入において最も根強い痛点の一つを解消する。つまり、モデルがオープンなインターネット上で見つけられるものと、組織が実際に意思決定のために必要とするもののギャップだ。これまでは、そのギャップを埋めるには多大なカスタムエンジニアリングが必要だった。MCP対応に加え、Deep Researchの自律的なブラウジングと推論能力を組み合わせることで、その複雑さの多くが設定手順へと集約される。開発者は現在、Google Search、リモートのMCPサーバー、URLコンテキスト、コード実行、ファイル検索を同時に指定してDeep Researchを実行できる。あるいは、Webアクセスを完全にオフにして、カスタムデータだけを対象に検索することもできる。さらに、PDF、CSV、画像、音声、動画などのマルチモーダル入力も、グラウンディングのための文脈として受け付ける。
ネイティブなチャートとインフォグラフィックスで、AIレポートを関係者に提出できる成果物へ
2つ目の注目機能は、ネイティブなチャートとインフォグラフィックスの生成だ。些細に聞こえるかもしれないが、プロフェッショナルな場面でAIが生成したリサーチ成果物の有用性を制限してきた、実務上の制約に対処するものだ。
Deep Researchの従来バージョンでは、テキストのみのレポートが生成されていました。可視化が必要なユーザーはデータをエクスポートして自分でチャートを作る必要がありましたが、これは「エンドツーエンド自動化」という約束を損なう摩擦点になっていました。新しいエージェントは、レポート内に高品質なチャートやインフォグラフィックをインラインで生成し、HTMLまたはGoogleの「Nano Banana」形式でレンダリングされます。複雑なデータセットを、分析の物語の一部として動的に可視化します。
AIコメントに対してShruti MishraはXで、「エージェントはレポートにインラインでHTMLチャートとインフォグラフィックを生成します。スクリーンショットではありません。「このデータを可視化してください」といった提案でもありません。マークダウン出力の中に、実際にレンダリングされたチャートが入るのです」と述べ、この変更の実務的な重要性を捉えました。
エンタープライズの利用者、特に利害関係者向けの成果物を作る必要がある金融・コンサルティングの現場では、Deep Researchは、調査フェーズを加速するためのツールから、最終に近い分析プロダクトを生み出せる可能性のあるものへと変わります。さらに、実行前にユーザーがエージェントの調査計画をレビューし、導き、修正できる新しい共同計画機能、そして中間の推論ステップをリアルタイムにストリーミングする仕組みを組み合わせることで、開発者は調査の範囲をきめ細かく制御しつつ、規制産業が求める透明性を維持できます。
Deep Researchは、コンシューマー向けチャットボット機能からエンタープライズのプラットフォーム基盤へどう進化したか
今回のリリースは、Googleが数か月かけて構築してきた戦略的な物語をはっきりと形にします。Deep Researchは単なるコンシューマー向け機能ではなく、複数のGoogleプロダクトを支える基盤の一部であり、今や外部の開発者に向けてプラットフォームとして提供されるのです。
ブログ記事では、開発者がDeep Researchエージェントで構築するとき、「Gemini App、NotebookLM、Google Search、そしてGoogle Financeのように、Googleの人気プロダクトの一部で提供されている調査機能を支える、同じ自律型の調査基盤にアクセスできる」ことが明示されています。これは、API経由で利用できるエージェントが、Googleが社内で使っているものの簡略版ではなく、同一のシステムをプラットフォーム規模で提供していることを示唆しています。
ここに至るまでの道のりは驚くほど迅速でした。Googleは2024年12月、Geminiアプリのコンシューマー向け機能としてDeep Researchを最初に導入しました。当初はGemini 1.5 Proをベースに動いていました。その時点で同社は、ウェブ情報を数分で統合してユーザーの手間を何時間も節約できる「パーソナルAIリサーチアシスタント」として説明していました。2025年3月までにGoogleは、Gemini 2.0 Flash Thinking ExperimentalでDeep Researchをアップグレードし、誰でも試せるようにしました。次にGemini 2.5 Pro Experimentalへのアップグレードが登場し、Googleは査読者(レイター)が競合するディープリサーチ提供事業者よりも2対1以上の差で同社のレポートを好んだと報告しました。そして2025年12月のリリースは、開発者向けへの転換点でした。GoogleはInteractions APIを立ち上げ、Deep Researchを初めてプログラム的に利用可能にしました。これはGemini 3 Proをベースにしており、オープンソースのDeepSearchQAベンチマークが付随しました。
今回の改善の土台となっている基盤モデルは、Gemini 3.1 Proです。同モデルは2026年2月19日にGoogleが公開しました。このモデルは中核となる推論能力で大きな飛躍を示しました。新しい論理パターンを解くモデルの能力を評価するベンチマークARC-AGI-2では、3.1 Proが77.1%を獲得し、Gemini 3 Proのパフォーマンスを2倍以上上回りました。Deep Research Maxはこの推論の基盤を引き継ぎ、その上に自律型の調査行動を重ねることで、DeepSearchQAで93.3%(12月から66.1%)、Humanity's Last Examで54.6%(46.4%から)を達成しています。
Googleは、自律型リサーチエージェントを作る競合がひしめく状況に直面している
Googleは真空の中で動いているわけではありません。今回のローンチは、自律型リサーチエージェント分野で競争が激化する中で行われました。OpenAIは、ソーシャルメディア上で流通している報道によれば、コードネームHermesのもとでChatGPT内に独自のエージェント機能を開発しており、エージェントビルダー、テンプレート、スケジューリング、Slack連携などを含みます。Perplexityは、AIを活用したリサーチを核にして事業を築いています。そして、自動化された調査ワークフローのさまざまな部分に切り込むスタートアップ群も増え続けています。
Googleのアプローチを際立たせているのは、検索インフラと、MCPベースのコネクティビティの組み合わせです。つまりDeep Researchに対しては、利用可能なウェブ情報の中でも最も広範で最新のインデックスへのアクセスを提供する検索基盤があり、それに加えてエンタープライズのデータソースへはMCPベースの接続が行えます。現在、Google Searchの規模で公開ウェブを同時に問い合わせながら、標準化されたプロトコルを通じて独自のデータリポジトリをナビゲートできるリサーチエージェントを提供している企業は他にありません。価格体系もまた、Googleが導入を進めたい意図を示しています。モデルの料金を追跡しているSim.aiによれば、12月のプレビューでのDeep Researchエージェントは、入力トークン100万あたり2ドル、出力トークン100万あたり2ドルで、文脈ウィンドウは100万トークンでした。つまり、生成するリサーチ出力の量に対してコスト面で競争力があるポジションだということです。
とはいえ、誰もが発表を純粋に熱狂して迎えたわけではありません。X上の複数のユーザーは、新しいエージェントが利用できるのはAPI経由であって、Geminiのコンシューマーアプリにはないと指摘しました。「Geminiアプリ上では使えない」とTestingCatalog Newsが観察し、別のユーザーは「GoogleはなぜかGemini App Proのサブスクライバーに対してGemini App Proを罰し続けている」と書きました。また、ベンチマーク結果の提示方法について懸念を挙げる人もいました。あるユーザーは、Googleのチャートがパーセンテージ改善を表すうえで「誤解を招く」可能性があると主張しました。こうした不満は、GoogleのAI戦略におけるより広い緊張を示しています。同社は、APIを通じて利用できる開発者やエンタープライズ顧客に対し、最も高度な能力をますます振り向けている一方で、コンシューマー向けプロダクトでは遅れが生じることがあるのです。
Deep Research Max が金融、バイオテクノロジー、そして知識労働の未来にもたらす意味
今回のローンチが持つ実務上の影響は、最も直ちに、徹底的な複数ソースの調査を事業の中核機能として依存する業界に現れます。金融サービスでは、アナリストが散らばった情報源からデューデリジェンス報告書を組み立てるために日常的に何時間もかけているのが実態です――SEC提出書類、決算説明会の書き起こし、市場データ端末、社内の案件メモなど。そんな中でDeep Research Maxは、初期の調査フェーズを完全に自動化する可能性を提示しています。FactSet、S&P、PitchBookとの提携からは、Googleが金融の専門家がすでに使っているデータ基盤を前提に、この取り組みを実用化することに本気であることがうかがえます。
ライフサイエンス領域では、ブログ記事が、GoogleがAxiom Bioと共同で取り組んでいることに触れています。同社は、薬剤の毒性を予測するAIシステムを構築しており、Deep Researchによって、バイオメディカル分野の文献に対する初期調査の深さが新たな段階へ引き上げられたとしています。市場調査やコンサルティングでは、埋め込み型の可視化やきめ細かな引用(クレジット)を備えた、関係者がそのまま使えるレポートを作成できることによって、プロジェクトの所要期間を数日から数時間へ圧縮できる可能性があります。
重要な問いは、こうした自動化された出力の品質と信頼性が、これらの分野の専門家が求める基準を満たせるかどうかです。Googleのベンチマーク数値は印象的ですが、ベンチマークは標準化されたタスクにおける性能を測るものです。実世界の調査はもっと混沌としており、より曖昧で、さらに、しばしば自動化が難しい種類の判断を必要とします。Deep ResearchおよびDeep Research Maxは現在、Gemini APIの有料プランを通じてパブリックプレビューとして利用可能であり、スタートアップやエンタープライズ向けのGoogle Cloudでの提供は間もなく開始される予定です。
18か月前、Deep Researchは、大学院生がブラウザのタブに溺れてしまうのを助ける機能でした。今日、Googleは、それが投資銀行の最初のシフトを置き換えられると賭けています。この2つの野心の間にある距離――そして、その技術が実際にそれを埋めることができるかどうか――が、自律型のリサーチエージェントが企業向けソフトウェアの変革的なカテゴリになるのか、それともベンチマークで人を魅了するだけで会議室では失望させる、別のAIデモにとどまるのかを決めることになるでしょう。




