CVE-2026-25253が私に教えてくれた、安全なAIアシスタントの作り方

Dev.to / 2026/3/24

💬 オピニオンDeveloper Stack & InfrastructureIdeas & Deep AnalysisTools & Practical Usage

要点

  • CVE-2026-25253は、主要なAIアシスタント3つのプラットフォームにまたがってWebSocketハンドラに影響を及ぼし、不正なペイロードによってアシスタントが他のユーザーの会話履歴を返答(エコー)してしまい、セッションデータの一部が漏えいする問題が発生しました。
  • とはいえ脆弱性は迅速に修正され、漏えいした断片はいずれも単体では機微度が低いように見えたものの、影響を受けた実行インスタンスが多かった(42,000件)ため、断片が合算されてPII(個人を特定できる情報)のマップになってしまいました。
  • この記事は、より広範なリスクが依然として広がっている点を主張しています。つまり、多くのAIアシスタントアプリは、適切なスクラブ(除去)なしに、デフォルトでユーザーデータをAI APIへそのまま送信しており、氏名・メールアドレスなどの機微情報が、第三者側の処理やキャッシュ/ログ記録の可能性を伴って外部に露出します。
  • すぐに実施すべき緩和策として、次の3つを推奨しています:プロンプト送信前にPIIをスクラブすること、製品環境でプロンプト/レスポンスの全文をロギングしないこと(メタデータのみをログに残すこと)、そして機微データに対して保持期間の短い、従量課金型のAPIを優先すること。
  • さらに、このセキュリティ問題を「Slow LLM(遅いLLM)」という考え方につなげています。速度が過度な依存につながることを背景に、「安全性」を行動面(依存性)と技術面(脆弱性によるデータ漏えい)の両方の観点から捉え直しています。

Sam Lavigneの「Slow LLM」アートプロジェクト――AIが俳句を生成するのに2日かかる――が、いま非常に注目を集めています。前提はこうです。人々に、「即時のAI応答にどれほど依存してしまっているか」を直視させること。

しかし、誰もがAI依存について議論する一方で、別の問題が静かに燃え上がっています。監査されていない脆弱性によって、AIアシスタントがプライベートデータを漏えいさせているのです。

CVE-2026-25253はその実例です。

起きたこと

この脆弱性は、3つの主要なAIアシスタントのプラットフォームにおけるWebSocketハンドラを直撃しました。攻撃の経路は単純でした。不正なペイロードによってアシスタントが会話履歴をエコーするよう強制され、その中には他のユーザーのセッションからの断片も含まれていました。

単なる机上の話ではありません。パッチが出される前に、42,000件のAIアシスタントインスタンスが影響を受けました。実際の利用者。実際のデータ。

漏えいしたデータは、それ自体ではそもそも「センシティブ」ですらありません。氏名。メールの断片。住所の一部。アプリがAI APIに日常的に送っているような種類のものです。「acme@example.com宛に、John Smithへの返信文を作ってくれませんか。」のような情報です。

単体で見れば、各断片は無害に見えます。何千ものセッションにわたって集計すると、それはPIIの地図になります。

真の問題はCVEではない

CVEは数日で修正されました。危険にしていた根本的な振る舞い――スクラブせずに生のユーザーデータをAI APIに送るアプリが今もあちこちに存在していること――は、依然として至る所に残っています。

POST /v1/chat/completionsを呼び出すとき、そのメッセージには何が入っていますか? 氏名。メールアドレス。医療情報。金融情報。これらすべてが平文のまま第三者APIに流れ、リクエスト履歴として記録され、AIプロバイダ側でキャッシュされている可能性さえあります。

誰もこれをセキュリティ上の欠陥として設計したわけではありません。理由は単純で、デフォルトが「すべて送る」だったからです。

今日できることは3つ

1. システムの外に出る前にPIIをスクラブする

ユーザーの文章をAI APIに送る前に、PII検出の処理を通してください。最低限、メールアドレス、電話番号、SSNを削除します。それらをトークン([EMAIL_1], [PHONE_1])に置き換え、相手側で応答を再構成します。

特に重要なのは、ユーザーがアップロードしたドキュメントやフォーム入力の場合です。そこにはPIIがぎっしり詰まっています。

2. 本番環境ではフルプロンプトをログに残さない

アプリケーションのログは、二次的な攻撃面になります。デバッグのためにフルのプロンプト/応答ペアをログに記録しているなら、意図していなかったPIIのデータベースを作っていることになります。コンテンツではなく、メタデータ(レイテンシ、トークン数、エラーコード)をログにしてください。

3. 保持期間が短いペイ・パー・コール型APIを使う

サブスクリプション型のAIサービスには、利用規約のどこかにデータ保持ポリシーが埋め込まれていることがよくあります。ペイ・パー・コール型APIは、保持期間が短い、または保持期間がない傾向があります。何かセンシティブなものを送っているなら、この違いは重要です。

Slow LLMの問題はここにつながっている

Slow LLMでLavigneが言いたいのは、速さが依存を生むということです。私たちは、即時のAIなしでは壊れてしまうワークフローを作り、その依存が健全かどうかを問わずに進めてしまいました。

同じ構図がセキュリティでも起きます。私たちは、データが必要なものかどうかを問わずに、とにかく速いルートだからという理由で、AI APIに「すべて送る」アプリを作ってきました。

CVE-2026-25253の影響を受けた42,000のインスタンスは、不正に作られた企業だったわけではありません。デフォルトの選択を選んだ、勢いのあるチームでした。デフォルトの選択こそが危険なものです。

遅い方法で作る。最初にスクラブする。送る量を減らす。ログも減らす。

あなたのユーザーは、あなたがそうしたことを決して知ることはありません。そうなるべきなのです。

私はこの問題のためにPIIスクラバーを作りました――プロンプトがあなたのシステムの外に出る前に、20カテゴリの個人データを取り除きます。the-service.liveで無料で試せます。