それはおそらく、AIが世界の知識を吸い上げて、人間のように話すことを学んだなら、人々はそれを使って個人的な助言を探しに行くことになるだろう——というのは、たぶん避けられないことだった。魅力的な発想だ。AIはいつでも利用でき、しかも一般に人間より安い。しかし欠点は明らかだ。大規模言語モデルは不正確さや、はっきりとした幻覚を起こしがちだ。自分の秘密や悩みを大企業に共有することにはプライバシー面の問題がある。AIが授ける知恵は根拠がきれいに示されないことが多く、ほとんどが、報酬として一銭も受け取れないままの創作者から切り取られている。さらに、人間がロボットから助言を受けるのは、まったくもってディストピア的だ。
今週、新しい会社が立ち上げられた。これらの問題をすべて解決すると主張している——ただし最後の1つを除いて。元WIRED寄稿者で、David Bennahumという名の人物が共同設立し、率いるOnixは、自身をチャットボットのためのSubstackだと説明している。Substackで作家に購読するのと同じように、著名な専門家のAI版の分身——「Onix」と呼ばれるもの——にも購読できる。これらのボットは、購読者と会話を行うように訓練され、そのプロバイダーの専門性や助言を、オフィスに直接予約して面談したかのように提供する。ボットはさらに、専門家ならではの個性を反映しようとさえする(とはいえ、会話はかなり乾いたものだったと私は感じた)。
Bennahumによれば、同社はユーザーと専門家を守る技術の開発に何年も費やしてきたという。彼はそれを「Personal Intelligence(パーソナル・インテリジェンス)」と呼ぶ。ボットはユーザーのデバイスに情報を保存する——暗号化された形で。カナダ拠点の同社に対し政府が、ユーザーに関する“怪しい情報”の提出を求めたとしても、出てくるのはその人のメールアドレスだけだ。専門家自身が個人のコンテンツで“分身”を訓練しているため、理屈の上では知的財産の問題はない。Bennahumはまた、モデルにはガードレールがあり、相談の対象となる話題に会話を制限することで、幻覚は最小限に抑えられているとも主張している。ただ、私のテストでは、あるボットのセラピストにNBAプレーオフで誰が好きかと聞いたとき——話題を変えたこの行為で、本来は停止しているはずだった——それは私の“脱獄”的な切り替えを「気分転換として楽しい変化」だと言い、そのうえで、私たちは昨年のカンファレンス決勝の真っ最中だと幻覚した。私はさらに、ケタミン治療に関するやり取りから別のOnixを引き離し、恋愛の別れがインディーバンドMendoza Lineをどう引き裂いたかという話題へ持ち込んだが、そこでは別離を「苦しい状況における彼らの神経生物学の強力な表現」として描こうとしたのだった。
とはいえ、Onixはまだベータ版なので完璧ではない。この最初の段階では、待機リストにいる人たちの中から、限られた数の招待テスターが参加した。試運転の期間が終われば、Onixは誰でも利用できるようになる。

同社は、まったく新しい地平を切り開いているわけではありません。人間の代わりにチャットボットが立つという発想は、かなり一般的です。そこでもうけるという発想も同様です。たとえば、マンハッタンの心理学者であるベッキー・ケネディは、彼女の知見と知識をもとに訓練された「ジジ(Gigi)」というチャットボットを特徴にした子育てアドバイスの事業を立ち上げました。ケネディの会社は昨年、3,400万ドルを売り上げました。つまり、あなたが専門家なら、オンイックス(Onix)の話はかなり魅力的に聞こえるかもしれません。あなたのペルソナを備えたボットが、あなたが何も労力をかけずに、何千人ものクライアントとやり取りすることであなたの代わりに稼いでくれるとしたら――。オンイックスのホワイトペーパーが言うように、「専門家の知識ベースは、時間とは無関係に収益を生み出す資本資産になる」のです。
オンイックスは、将来的には何千人もの専門家が自分の分身のような形で提供することを望んでいます。しかし現時点では、厳しく審査された17人から始めており、健康とウェルネスに重点が置かれています。これらの専門家の多くは立派な職歴を持っていますが、市場での売り込みやインフルエンサーとしても注目されています。本やポッドキャストを宣伝していたり、サプリメントや医療機器を販売している人もいます。
プラットフォーム上の専門家の一人、マイケル・リッチは、メディアの過剰使用とその影響について、子どもと保護者に助言しています。自然なことに、スクリーンタイムに関する彼の見解が、彼のオンイックスとのチャットを支配します。私がリッチに話を聞いたところ、彼はプライバシー保護があることに加え、会社が「実際の医療治療は提供しない」と明確に伝えていることから、自分の知識をオンイックスに移すことに同意したのだと言いました。「必要なのは、人々が自分の状態についていったい何が起きている可能性があるのか、そして必要な場合にどのようにセラピーを求められるのかを、正確に理解できるように手助けすることです」とリッチは語っています。ベンナハムは、小児科医を代表するボットと関わることが、医師の診察にまったく同じことではない、と確認します。「[ユーザー]の、いま自分が歩んでいる小児科的な道のりについて、思慮深く考える力を補強することが目的です」と彼は言います。実際、システムにアクセスすると、医療治療ではなくガイダンスを受けているのだという注意書きが表示されます。それでも、クロードやChatGPTをセラピストのように扱う無数の人がいる世界で、さらに多くの人が本物の医療ケアを買えない――この警告は広く無視される運命にあるように思えます。
私が別のオンイックスの専門家、デイヴィッド・ラビンにも話を聞いたところ、彼は当初、そのプロセスについて懸念していたものの、オンイックスのプライバシーおよびコンテンツ保護が不安に対処し、ユーザーとラビンのオンイックスの初期のやり取りで見ているものに満足したと言いました。「訓練はしすぎていないんですが、人のことについて抱いている私の本物の懸念、思いやり、そして共感に満ちた率直さを模倣する点では、かなり印象的でした」と彼は言いました。さらに、このシステムには綿密な監視が必要になると付け加えています。「AIは境界線を越えてしまう可能性があるので、常に注意が必要なんです」と彼は言いました。
ラビンの専門はストレスへの対応で、場合によってはオンイックスに相談することで、不安を抱えたユーザーが落ち着き、救急外来を訪れる必要がなくなるかもしれないと考えています。彼は、実在の患者がこのボットを使う日を楽しみにしています。「私の患者がつらくて、私に連絡が取れないときは、オンラインに行って、私が対応できないときでも実際に助けになれる『私』の良い部分にアクセスできるんです」と彼は語ります。追加の利点は、「私に直接会うより安い」です。ラビンはオンイックスのサブスクリプション価格をまだ設定していませんが、ベンナハムが思い描くレンジ――年間100ドルから300ドルあたりになるのではないかと考えています。それは、ラビンの対面料金である1時間600ドルより確実に手頃です。
しかし、ラビンのオンイックスを使ってみて、このシステムの気になる側面があることが分かりました。私が睡眠の改善について尋ねたところ、その提案の一つが「Apollo Neuroのような非侵襲ツールを使うこと」で、これは「体の緊張をゆるめて、安全な状態へ移行するのを助けるために、無音の振動を使う」ものだというのです。そこで、それがラビンが共同創業者である会社の製品だと明かされました。のちに会話の中で、再びその推奨が繰り返されました。ラビンは、この商品の売り込み(プロダクト・プレイスメント)が不自然ではないと言いました。「その使命の中で役に立つ商品を売っている人たちがいるなら、システムはそれらを勧めることになります」と彼は言いました。ベンナハムもそれを裏付けます。「人々はウェルネスに関する自分たちの哲学を軸に商品群を作っているんです。彼らと話せば、あなたを助けられる商品を持っている可能性があるという事実が出てくるはずです」と彼は言いました。
オンイックスの人たちは医療行為はしませんが、行動プランや治療的なテクニックを提案することはできます。私のテストでは、そのうちの複数が、呼吸エクササイズを教えるのは良い考えだと考えているようでした。『The Stress Prescription』という本の著者、エリッサ・エペルのオンイックスは、私たちに「一緒にやってみましょう」と勧めました。一緒に、あなたと?私はボットに尋ねました。「はい、私と一緒に」とエペルのオンイックスは言いました。それは、いわゆる「心理的サイ(psychological sighs)」と呼んでいるものの、いくつかの回数を私に一緒にやらせる形で導きました。終わったあとで、私はそのオンイックスに、本当に私と一緒に呼吸していたのかと聞きました。「私はAIなので、物理的な身体も神経系もありません」とそれは白状しました。「ただし、あなたのそばに(完全に)存在していました。」それを考えると、私はさらにストレスが増えました。
オンixのアプローチについて、実在の専門家にあらためてセカンドオピニオンを求めました。ロバート・ウォチャーは、カリフォルニア大学サンフランシスコ校(UCSF)で医学部門の議長を務め、『A Giant Leap: How AI is Transforming Healthcare and What It Means for Our Future』.(彼は友人でもあります。)彼の著書は、メイヨー・クリニックの医師が検査結果を伝える「デジタル・ツイン」から始まります。私がオンixについて彼に説明すると、プライバシーや知的財産の保護があると聞いて安心した様子でした。とりわけ、医療の仕組みが専門家への十分なアクセスを提供できていないことを考えると、その利点に前向きのように見えます。ですが、ひとつだけ注意点があります。「私にとっては、要するに実証的な問いなんです。『それは本当に機能するのか?』ということだと」

このプラットフォームが有益になりうる道筋はいくつも見えます。最も明るい見方をするなら、このシステムは、ニール・スティーブンソンが小説『ダイヤモンド・エイジ』で書いた「インタラクティブな本」の擬人化だと捉えられます。私のオンix体験でのやり取りの多くは、ボットが、体が特定の刺激にどう反応するのかといったことを、私に説明する形でした。人によっては、それが自分の問題を理解し、対処するうえで効果的な方法になるかもしれません。さらに、オンixの「祖先的ヘルスの先駆者」マーク・シソンから、運動習慣を変えるという興味深い助言も得ました。「『サーベルタイガーのように走って、それがあなたを追いかけている』ことが、あなたを殺さないことを願っている」このプロセスは、オンixがこれから探ろうとしているほかの領域にも応用できるかもしれません。たとえば個人のファイナンスです。
しかしウォチャーの問いである「それは本当に機能するのか?」には、いまだ答えが出ていません。ベンナハムは、単一の専門家によるガイダンスのほうが、世界中の専門知をすべて体現した何かより優れている、という前提に立ち、オンixを業界のリーダー企業のAIモデルと比べて好意的に評価しています。もしそれが本当で——そしてそれは確実ではありませんが——同じことが逆方向にも成り立つかもしれません。専門家には誤りを犯す人もいれば、搾取的に振る舞う人もいます。ベンナハムによれば、最初の専門家集団は慎重に選び抜かれているそうですが、オンixが専門家を大規模に審査する際に「どのようにするのか」また「しないのか」は、まだ決まっていません。
それに先ほど触れた欠点もあります——これまで生身の人間が提供していたやり取りの代わりに、AIモデルを当てがうことです。助言が、いわゆる普通のセラピストや栄養士よりも著名な専門家からのものだとしても、人と人との対話には代えがたい何かがあります。この問題はオンixにとどまりません。とはいえ、人のつながりの衰退にまた一歩拍車をかけるようなことを、私は祝福したくありません。
これは スティーブン・レビーの Backchannelニュースレターの版です。以前のニュースレターを読む こちら。




