AI Navigate

Signalの創設者がMeta AIの暗号化を支援

Wired / 2026/3/19

📰 ニュースSignals & Early TrendsIndustry & Market Moves

要点

  • Signalを創設したプライバシー擁護者のモクシー・マーリンスポイクが、Meta AIの暗号化を支援しており、AIツールのプライバシーを第一に考える方向性を示唆している。
  • 暗号化されたMeta AIに関する2026年3月のブログ投稿は、プライバシー志向の研究者と大手AIプラットフォームとの協力を示唆している。
  • Signalのオープンソースの暗号化プロトコルが、この暗号化の取り組みの核心要素として挙げられている。
  • この開発は、AIサービスがAIワークフロー内のプライバシーと安全な通信をどのように設計するかに影響を与える可能性がある。
Save Storyこの話を保存
Save Storyこの話を保存

モクシー・マリンスパイク、 セキュアな通信アプリ Signal およびその広く使われているオープンソースの暗号化プロトコルを生み出したプライバシー保護の提唱者は、今週、このプライバシー重視の AI プラットフォーム と述べ この週、同氏の技術を Meta の AI システムへ組み込んでいく予定だと述べました。毎日、Signal、Meta の WhatsApp、そして Apple の Messages を通じて送られる何十億ものチャットメッセージは エンドツーエンド暗号化 によって保護されています。この機能は、送信者と受信者以外の誰もあなたのメッセージをのぞくことができないようにするもので、過去10年間で主流となりました。しかし、生成系 AI プラットフォームの人気が急上昇する中でも、エンドツーエンド暗号化の保護を提供しない AI チャットボットとの日々のやりとりが数十億件に上っており、AI 企業があなたの話している内容を容易にアクセスできる状態になっています。

これは設計上の意図です。プラットフォームが可能な限り多くのユーザデータを AI モデルの訓練に使いたがり、あなたの情報を訓練データとして使われることを オプトアウトするのを難しくしているからです。しかし、チャットボットや AI エージェント の能力が高まるにつれて、技術者や企業の中には、より制約のある・プライバシー重視のシステムを構築しようという動きが出ています。

「LLMs がさらに多くのことをできるようになるにつれて、これらにより多くのデータが流れ込むことを私たちは予測すべきだ」と、Marlinspike は Meta との協力についての 短いブログ投稿 で火曜日に書いた。 「現時点で、これらのデータは一切プライベートではない。AI 企業やその従業員、ハッカー、召喚状、そして政府と共有されている。暗号化されていないデータには、いつも起こることであり、必ず間違った手に渡ることになる。」

マリンスポイクは「Confer のプライバシー技術を統合して Meta AI を支えるようにする」と述べています。また、今年の初めに登場した Confer は今後も Meta とは独立して運用されると強調しました。プロジェクトの目標は、「暗号化された会話の完全なプライバシーとともに、誰もが AI の完全な力を手にできるようにする」技術を提供することだと、マリンスポイクは付け加えました。

2016年、Meta が所有する WhatsApp と協力して、エンドツーエンド暗号化を 10 億を超えるアカウントに同時に展開しました。過去1年間で WhatsApp は Meta の AI チャットボットをアプリに導入しましたが、個別のチャットと同じ形で同社から保護されているわけではありません。

「人々は AI を、深く個人的で機密情報へのアクセスを必要とする形で使います。」と WhatsApp の責任者 Will Cathcart 書いた は Confer との協力について X の水曜日の投稿について述べました。「その技術を、個人がそれを私的に行える力を与える形で構築することが人々にとって重要です。」

暗号化された AI の普及はまだ出現途上です。従来のデジタル通信のエンドツーエンド暗号化で用いられる暗号方式は、生成系 AI のデータ保護へ容易には直接翻訳できません。Confer はまだ新しいプロジェクトであり、マリンスポイクのブログ投稿は、Meta との協力が正確にどのように機能するか、統合の具体的な目的が何であるかについての詳細を提供していません。

Marlinspike も Meta も、出版前に WIRED に追加のコメントを提供しませんでした。

ニューヨーク大学の暗号研究者 Mallory Knodel は、Meta AI を使用するチャットボットを使う人々が、その交換の中で機密性とプライバシーを得られることは「素晴らしいことだ」と述べています。重要なのは、Meta が AI チャットデータを訓練のためにアクセスできなくなることだと Knodel は言います。彼女は同僚と最近、エンドツーエンド暗号化と AI に関する研究を公表しました。end-to-end encryption and AI。 「もっと多くの AI チャットボットがこのアプローチを採用してほしい。」

Knodel の Confer に関する予備的・初期評価は、プラットフォームは完璧ではないが、プライベートな AI チャットボットを構築する方法の重要な例であることを示しています。

暗号技術者のJP・アウマッソン、暗号資産プラットフォーム Taurus の最高セキュリティ責任者は、これまで Confer について同様の結論に至っています。「Confer は、総合的に見ておそらく最良の民間AIソリューションです」とWIREDに語っています。「もちろん完璧ではありません。アーキテクチャ、脅威モデル、サプライチェーンの文書化が欠けています。しかしMoxieは何をしているかを知っており、実績も確かなものです。」

AIプラットフォーム用の暗号化方式を開発する難しさは大きな障害であり、これまでのプライバシー分野の作業の多くは、入手可能なオープンソースモデルの活用や、プライバシー層 between AI企業とエンドユーザーで構築してきました。例えば、Marlinspike が火曜日に書いたように、Confer の技術は公開済みの重みを持つモデルの上に構築されています。多くの人はさまざまなタスクに Confer を使うのが好きですが、他の人は独自モデルの最先端機能を取り逃しています。

Meta社との協力はMarlinspikeに、閉じたモデルと直接協働する機会を与えます。「Meta は高度な最先端モデルを構築しているので、世界で最もプライベートなAIチャット技術と世界で最も有能なAIモデルを組み合わせることになる」と彼は書いた。

そのプロジェクトが結局これらすべての評価を満たすかどうかにかかわらず、研究者はWIREDに対して、この協力が重要であると強調した。

「Moxie の、少なくとも1990年代にさかのぼる概念である信頼済みコンピューティングを用いる提案は、私には筋が通っています。」とタウルスのアウマッソンは言う。「基礎となる前提と制約は十分に理解されている。繰り返すが、完璧ではないが、おそらくほとんどのユーザーには十分である。課題は、Anthropic・Google・OpenAI の最新の最先端モデルと同等の性能を持つモデルをサポートすることだ。」