Searsのデパートは米国全体でほぼ姿を消しているが そのブランドとその家電修理サービスは現代的なひねりを加えた状態でまだ営業を続けており、Samanthaという名のAIチャットボットと電話アシスタントも登場している。歴史ある小売業者が未来へ踏み出す今、新しい研究によれば、チャットボットとの会話がオンライン上で公開されていたことが示されている。
Searsは依然として信頼される名前ではあるものの公の目にはほとんど触れていないため、セキュリティ研究者のジェレミー・フォウラーは先月、公開されている3つのデータベースを発見したとき、大量のチャットログ、音声ファイル、音声のテキスト起こしが含まれており、Sears Home Servicesの顧客に関する個人情報が含まれていたことに驚きと警戒を感じた。Home Services部門は「米国で最大の家電修理サービス提供者」であると主張しており、年間700万件以上の修理を行っていると報告している。
フォウラーが発見した公開されていたSearsデータベースはその後保護され、2024年から本年までのチャットログ370万件に加え、音声ファイル140万件、テキスト書き起こしが含まれていた。フォウラーは、事件に関するCSVファイルの1つに54,359件の完全なチャットログが含まれていることを発見した。フォウラーが見た会話には、チャットボットが「Samantha、Sears Home ServicesのAI仮想音声エージェント」と自己紹介する内容が含まれており、ログには同社のAI技術「kAIros」も記録されていた。データのキャッシュには英語とスペイン語のチャットが含まれており、Searsの顧客の氏名、電話番号、住所、所有している家電、配送予定と修理に関する情報などの個人情報も含まれていた。
「覚えておくべきことは、それが実在の人々の実データであるということだ」とBlack Hills Information Securityの研究者フォウラーは述べている。企業がAIを導入してコストを削減できる可能性がある一方で、データを保護し守る際には「手抜きをしないこと」が極めて重要だ。最低限、これらのファイルにはパスワード保護と暗号化が施されるべきだった。
2月初頭に公開アクセス可能なデータベースを見つけた後、フォウラーはSearsとSears Home Servicesを所有するTransformcoのスタッフに連絡を取り、データベースはすぐに保護されたと語る。公開期間がどのくらい続いたのか、フォウラー以外の誰かがその間アクセスしていたのかは不明である。WIRED からのウェブ上での情報公開についてのコメント要請には、Transformco は複数回の回答をしていない。
フォウラーは、Transformcoへ事実を知らせた際、Samantha AIチャットボットのマネージャーと直接つなぐと主張する人物からの返信を受け取ったと述べている。しかしその人物は、その後の連絡にも返答しなかったという。
公開された顧客データは問題だが、フォウラーはSearsのデータについて2つの理由で特に懸念していた。第一に、そのような情報は顧客の連絡先情報と家庭生活、所有している家電を含む詳細が含まれており、フィッシング攻撃や保証詐欺、その他のターゲティングに悪用される可能性が非常に高いということである。
第2のショックは、多くの音声通話が、顧客が通話を終えたと思った後も数時間の周囲音を記録していたという事実から来ている。録音の中には最大4時間に及ぶものもあった。なぜ顧客がSearsのAIエージェントと話を終えた後も通話を続けたのかは不明だが、これらの長時間録音セッションには個人的な会話や機密情報が含まれていた可能性があり、顧客は私的に話していると考えていたはずだった。フォウラーは言う。「テレビの音が流れ、人々の会話が聞こえ、それらすべてが録音されていた。」
The files also show people getting frustrated with glitchy chatbots, which sometimes failed to answer questions or also pushed people toward human customer service agents.
Just two minutes into one 76-minute audio call observed by Fowler, the person trying to get help from the company asks to speak to a human. The AI voice bot responds: “I am fully equipped to address your needs efficiently and can resolve your issue right away. Whereas connecting with a live agent may involve a short wait.” Just a few minutes later, the bot struggles to complete the task it is asked about. “I am facing some errors while assisting you with your plan. Can I transfer your call to our live agent who will help with your request?”
In one text transcript, which begins near 11 am and ends at 1:30 pm, a person speaking with the Samantha “AI virtual voice” grows increasingly frustrated with the replies. “Where's my technician?” they repeat 28 times in a row. After getting some more responses they were unhappy with, the transcript shows, the person repeats: “You’re a computer. You’re a computer. You’re a computer.”
状況は、企業が生成型AIを技術スタックへ統合しようとする中で生じており、これらの露出は、ボットを直接顧客とやり取りすることに伴うプライバシー、信頼、および 評判上の リスク を伴う、ボットを直接顧客とやり取りすることのリスク。オックスフォード大学の作家で准教授のCarissa Vélizは、ある状況では人々は機械と話すときに安全だと感じる場合があると述べている。「結局のところ、機械はあなたの家を盗もうとはしないだろう」と彼女は指摘している。しかし、彼女は、人々が自分の機密情報を企業に預けることを信頼することについて、選択の余地がほとんどないことが多いと付け加える。
「望むなら人間と話す選択肢を与えるべきだし、会話を録音しない選択肢も与えるべきだ」とVélizは述べる。「長期的には、顧客を安全で快適に感じてもらい、疎外されたり搾取されたりすることのない状態を作っていきたい。」