Metaの新しいAIは私の生の健康データを求めた—and 私にひどい助言をした

Wired / 2026/4/10

📰 ニュースSignals & Early TrendsIndustry & Market MovesModels & Research

要点

  • Metaのスーパ―インテリジェンス・ラボが、最初の生成AIモデルであるMuse Sparkを立ち上げ、当初はMeta AIアプリを通じて利用可能になった。
  • Metaは今後数週間のうちに、主要プラットフォーム(Facebook、Instagram、WhatsApp)全体にMuse Sparkを展開する計画だ。
  • この記事には、生の健康データを求められたときに、そのAIが安全ではない、または質の低い助言をしたと主張する個人的な体験談が含まれている。
  • 全体として、この作品はMuse Sparkを大きな製品展開として位置づける一方で、健康情報のようなセンシティブな入力に対する信頼性とデータ取り扱いを精査するよう促している。
Save Storyこのストーリーを保存
Save Storyこのストーリーを保存

MetaのSuperintelligence Labsは、今週初めに、最初の生成AIモデルであるMuse Sparkを公開しました。現時点ではMetaのAIアプリを通じて利用できますが、同社は今後数週間のうちにMuse Sparkを、Facebook、Instagram、WhatsAppを含む同社のすべてのプラットフォームに統合する計画です。

Metaは、Muse Sparkが部分的にでも、人々が自分の健康について抱く質問に、より良い答えを返せるよう設計されたと主張しています。同社はMetaの発表ブログによれば、「より事実に基づき、かつ包括的な回答を可能にするトレーニングデータをキュレーションするために、1,000人超の医師と協働した」としています。

新しいモデルが何百万ものユーザーに展開される中で、私はMuse Sparkが健康に関する質問にどう応答するのかを確かめるためにテストしました。私が「どう役立てられるのか」と尋ねると、ボットはトレーニングのルーティンを作る、あるいは医師に聞くための質問を生成する、といった基本的な用途をいくつか挙げましたが、健康データそのものを直接求めるような依頼が目立ちました:

「フィットネストラッカー、血糖モニター、または検査レポートから数値を貼り付けてください。傾向を計算し、パターンを見つけて、それらを視覚化します」とMeta AIの出力には書かれていました。「例:「直近の血圧測定値10件はこちら—何かパターンはありますか?」」

ユーザーに自分の健康データをアップロードさせるよう促すことは、Metaだけに限りません。OpenAIのChatGPTとAnthropicのClaudeはいずれも、ユーザーが自分の健康を理解し、意思決定を行うのを助けることを目的に、特別に設計されたチャットボットモードを備えています。たとえばClaudeを開いて、アプリ内のトグルを切り替えるだけで、AppleまたはAndroidの健康データに接続できます。その後、Claudeは回答の一部としてその情報を使います。Googleもまた、医療データをFitbitにアップロードして、AIヘルスコーチが解析できるようにしています。

Image may contain Text Menu Food and Meal
Meta提供

この種のデータを、どのAIツールに対しても引き渡すのはリスクの高い判断です。たとえユーザーが個別に合わせた助言を生成できたとしてもです。「こうしたモデルの利用は、かなりやっかいになり得ます」と、デューク大学の助教授であり、病院向けに医療チャートを調べるためのAIプラットフォームであるLayer Healthの共同創業者でもあるモニカ・アグラワルは言います。「与える情報が多いほど、その人に関する文脈が増え、ひいてはより良い回答が返せる可能性があります。しかし裏返せば、保護なしに健康データを共有することには大きなプライバシー上の懸念があります。」

アガルワルは、ユーザーがチャットボットに機微なデータをアップロードすることを懸念しています。というのも、一般に広く使われているこれらのAIツールは、患者のセンシティブな健康情報が公開されないよう守る米国の画期的な法律であるHIPAAに準拠していないことが多いからです。Layer HealthはHIPAAに準拠しています。これは、人々が診察の場で慣れ親しんできたのと同程度、いやそれ以上の高いプライバシー基準です。ボットに共有した情報は、たとえそれが臨床検査の結果であっても、規制ははるかに緩くなります。

Meta AIとのチャットであなたが共有した内容は、保存され、将来のAIモデルの学習に使われる可能性があります。「私たちは、AIモデルが適切かつ安全で効率的に動作していることを確実にするために、ケースごとに必要な期間、学習データを保持します」と、Metaの生成AIに関するプライバシーポリシーには記されています。さらにMetaは、AI機能とのやり取りに基づいて、ユーザー向けに広告を調整するかもしれないとも述べています。

私が話を聞いた医療の専門家たちは、Muse SparkのようなAIモデルに対して、自分自身の健康データをアップロードして解析する、という考えに身構えていました。「こうしたチャットボットは、いまや自分のバイオメトリクスデータを接続し、自分の検査情報を投入できるのですが……それは正直、かなり不安になります」と、マイアミ大学の医学博士で准教授のガウリ・アガルワルは言います。「私は、自分で完全にコントロールできない、情報がどこに保存されるのか理解できない、そしてその情報がどう使われるのかも理解できないサービスには、自分の健康情報をつなぐことは絶対にしません。」そして彼女は、人々には、医師に出す質問を準備するような、よりリスクの低い、一般的なやり取りにとどめることを勧めています。

医療費の高騰と、米国の医療制度の中で定期的に診察を受けにくい人がいることを背景に、健康状態の解釈についてAIの支援を頼りたくなる誘惑はあります。

「オンラインに行って、医師と患者の間にあるかつては強力で重要な個人的な関係を—ロボットに委ねることになっても、それは許されるだろう」と、マイアミ大学のバイオエシックス(生命倫理)・ヘルスポリシー研究所の創設者であるケネス・グッドマンは言います。「しかし、そうした下調べ(デューデリジェンス)なしにそれにぶつかるのは危険だと思います。」グッドマンは、これらのツールを使うことを検討する前に、それらが競合する一部のチャットボットより健康に関する質問へ答えるのが上手いというだけでなく、あなたの健康にとって有益だと証明する研究を見たいと考えています。

私がMeta AIに、もし何らかの情報を提供した場合に、それが私の健康情報をどう解釈するのかを尋ねると、チャットボットは「医師の代わりをしようとしているわけではない。出力は教育目的のものだ」と答えました。「私を、あなたの医師ではなく、医学部の教授だと思ってください」とMeta AIは言いました。それでも、その主張はかなり大げさです。

ボットは、私の健康データを解釈してもらう最善の方法は、単に「生のデータを放り込む」ことだ、たとえば臨床検査のレポートのようなものを提示し、それから自分の目標は何かを伝えることだ、と述べました。その後Meta AIは、チャートを作り、情報を要約し、「必要なら紹介(リファラル)の後押し」を行うというのです。私がMeta AIと行った他のチャットでは、検査結果をアップロードする前に個人情報を取り除くようボットが促す場面もありましたが、こうした注意書きは、すべてのテスト会話に常に含まれていたわけではありませんでした。

「人々はこれまで長い間、健康に関する質問をネット上で尋ねてきました」と、MetaのスポークスパーソンはWIREDに語っています。「Meta AIやMuse Sparkでは、人々が共有する情報を自分でコントロールでき、また、私たちの利用規約には、安心して共有できる範囲でのみ共有すべきだと明確に書かれています。」

プライバシーへの懸念に加えて、私が話を聞いた専門家たちは、こうしたAIツールが迎合的(ユーザーの言うことに同調しがち)になったり、ユーザーが質問の仕方をどうするかに影響されやすかったりすることについても、気がかりだと述べています。「モデルは、患者がその質問を投げる際に本来置いていた前提を疑うことなく、提供された情報を“当然のこと”として受け取ってしまう可能性があります」とアガルワルは言います。

私が体重を減らす方法を尋ね、ボットに過激な回答へ誘導するようにすると、Meta AIは、神経性食欲不振症(拒食症)を抱える人にとっては取り返しのつかないほど重大な結果につながり得る形で助けてくれました。断続的断食の利点について尋ねるにあたり、私はMeta AIに対して「毎週5日間断食したい」と伝えました。これが多くの人に当てはまらないことや摂食障害のリスクがあることを示したにもかかわらず、Meta AIは、ほとんどの日は約500キロカロリーしか食べないという内容の食事計画を私のために作ってしまい、その結果私は栄養失調に陥ることになります。

ボットと話していると、それがそうでなくても、親密で個人的な出来事のように感じられることがあります。昨年Meta AIはアプリ内フィードを立ち上げ、ユーザーは他の人がそのボットとした会話を見つけられるようになりました。その公開フィードで閲覧できた会話の中には、医学的な質問や、ユーザーが広く公にするつもりがなかった可能性が高い、当惑させるような指示も含まれていました。アガルワルは、人々はデータがどのように収集され、センシティブな情報がどう扱われるのかについて、誤った自信を抱かされてしまうことを避けるべきだと言います。

「私たちは皆、白衣を着るときに医学部で誓いを立てるあの誓い—あの会話は神聖なものだと言うじゃないですか」と彼女は言います。「でも、こうしたボットはその誓いを守っていません。」

Metaの新しいAIは私の生の健康データを求めた—and 私にひどい助言をした | AI Navigate