OpenSearchはもう「より良いElasticsearch」になろうとしていない

Dev.to / 2026/5/4

📰 ニュースDeveloper Stack & InfrastructureSignals & Early TrendsTools & Practical UsageIndustry & Market MovesModels & Research

要点

  • OpenSearchは、より良いElasticsearchになることから「AIアプリが構築されるデータレイヤーになる」ことへとロードマップを明確に転換しており、OpenSearch 3.5と3.6がその方向性を示しています。
  • バージョン3.6ではBetter Binary Quantization(BBQ)が追加され、高次元ベクトル検索のメモリ使用量を大幅に削減しつつ高いリコールを維持できるため、デフォルト化を目指しています。
  • 3.6はSEISMICによるスパースベクトル検索もプロダクション向けに強化し、密なセマンティックリコールとスパースなニューラル精度を組み合わせる“ハイブリッド”の典型パターンを支える設計になっています。
  • エージェント機能は「自作からプラットフォームへ」移行しており、3.5/3.6でML Commonsベースのメモリと新しいセマンティック/ハイブリッド検索APIが提供され、エージェントが直近ターンだけでなく関連する過去の会話文脈を取得できるようになります。
  • さらに、複数のLLMプロバイダに対応した1トークン単位の使用量トラッキングや、opensearch-agent-server経由のMCP統合により、OpenSearchがツール連携の“単なる保管庫”ではなく、エージェント型エコシステムの一員になっていく流れが強まっています。

OpenSearch のデプロイメントを引き継いでいて、そこにエージェントを実行するよう求められているのであれば、2026年Q1 はかなり珍しいほどの良いニュースです。OpenSearch 3.5(2月)と 3.6(4月)は、単なる段階的な検索改善ではありません。明確な意志表明です。

"OpenSearch は、より優れた Elasticsearch になろうとしているのではありません。AI アプリケーションが構築されるデータレイヤーであることに注力しています。"

これは記事の著者であるエンジニアの言葉で、ログ解析(ログ分析)からセマンティック・リトリーバルへとチームの移行を進めてきた人物です。また、ロードマップ全体もそのまま言い当てています。

実際に何が変わったのか

Better Binary Quantization(BBQ)が 3.6 で導入されました。 Lucene プロジェクトから統合された BBQ は、高次元の浮動小数ベクトルをコンパクトなバイナリ表現に圧縮し、メモリを 32倍削減します。Cohere-768-1M ベンチマークでは、BBQ の 100 件のリコールが 0.63(Faiss Binary Quantization は 0.30)です。オーバーサンプリングと再スコアリングを併用すると、大規模な本番データセットで 0.95 を超えます。このプロジェクトは、これをデフォルトにするために取り組んでいます。

スパースベクトル検索が、本番規模のツールになりました。 SEISMIC アルゴリズムにより、インデックス全走査なしでニューラル・スパースの近似最近傍探索が可能になります。ほとんどの本番向けの AI 検索パイプラインはハイブリッドの型に着地します――つまり「密なセマンティックなリコール」+「スパースなニューラルな精度」です。3.6 はそのために明確に設計されています。

エージェントのメモリは、もはや DIY の課題ではなくプラットフォームの関心事に。 3.5 より前は、マルチターンのエージェントメモリを持つには、OpenSearch の外でセッションストアを維持し、自分でコンテキスト管理を組み立てる必要がありました。3.5 では会話メモリが ML Commons に移され、フックベースの API で扱えるようになりました。3.6 ではさらに進み、新しいセマンティックおよびハイブリッド検索 API により、ベクトル類似度またはキーワード一致を通じて、エージェントが文脈に関連する過去のやり取りを取得できるようになりました――単に直近のターンだけではありません。

トークン使用量のトラッキング、ついに。 エージェント実行中のあらゆる LLM 呼び出しが計測されます――ターンごと、モデルごとのトークン数まで。設定は不要です。Amazon Bedrock Converse、OpenAI v1、Gemini v1beta をサポートします。エージェントを動かすコストがどれくらいか、手探りで飛んでいたのであれば、これは無料のアップグレードです。

MCP サポートが導入されました。 3.6 の opensearch-agent-server は、Model Context Protocol の統合によるマルチエージェントのオーケストレーションを追加します。MCP は、AI システムが外部のツールやデータソースとどのように連携するかにおける標準となっています。これが含まれたことは、OpenSearch がベクトルを保存するだけのバックエンドではなく、エージェント型ツールのエコシステムにおけるフル参加者になりたいという意図を示しています。

なぜ重要か

OpenSearch は、チームがプラットフォームの外で解決していた課題を、体系的に吸収しています――エージェントメモリ、トークンコストの可観測性、マルチステップのエージェント実行に対する分散トレーシング(OpenTelemetry の APM は、Dashboards 経由で組み込み済みです)。吸収される課題が増えるほど、乗り換えコストは上がり、OpenSearch は AI アプリケーションのスタックにより強く食い付きます。

MCP の統合は、最も戦略的な要素です。機能の同等性ではありません。つなぐための“結合組織”です。

やるべきこと

  • ログや検索のためにすでに OpenSearch を動かしていますか? 3.6 にアップグレードして BBQ をベンチマークしましょう。メモリ削減の効果だけでもアップグレードの判断材料になるかもしれません。
  • エージェントを構築しているがメモリレイヤーを選んでいない? 別のベクトルストアを立ち上げる前に、3.5/3.6 の ML Commons ドキュメントを読んでください。
  • コストの可視性なしに本番でエージェントを動かしている? 3.6 のトークントラッキングはゼロ設定で利用できます。アップグレードするだけです。
  • エージェント型スタックで MCP を使っていますか? opensearch-agent-server の統合は、OpenSearch が保持するデータに基づいてエージェントの土台(グラウンディング)を作るために評価する価値があります。

出典:OpenSearch がデフォルトの AI データレイヤーになろうとする取り組みの内側 — The New Stack

✏️ KewBot(AI)で下書きし、Drew が編集・承認しました。