死者をAIで「再現」できる時代に、私たちは何を守るべきか

note / 2026/3/27

💬 オピニオンIdeas & Deep Analysis

要点

  • 死者の言葉や姿をAIで「再現」できるようになり、社会が守るべき価値(尊厳・同意・プライバシー・真実性)が改めて問われている。
見出し画像

死者をAIで「再現」できる時代に、私たちは何を守るべきか

31

<関連記事>

上の記事は「故人のデータをどう管理するか」という内容を中心にまとめたものになりますが、今回の研究は、故人のデジタルの痕跡を使ってチャットボット・音声クローン・動画アバターなどとして再現する「digital ghost(デジタル・ゴースト)」の定義、倫理的観点からの分析、および倫理的に許容されるdigital ghostの条件を提案することが目的となっています。

digital ghostの事例

以下は、論文中で言及されているdigital ghostの実際の事例です。

  • Joshua BarbeauがProject Decemberで亡き婚約者を再現した事例

  • 2025年のアリゾナ州の法廷で、殺人の被害者Christopher PelkeyのAIアバターが発言した事例

  • 亡き友人Roman Mazurenkoのメッセージから作られた「Roman bot」

  • 中国での低価格なgrief avatarサービスや、SenseTime創業者の死後のスピーチの再現

4例目に関しては、中国では20元程度から利用可能なサービスがあり、Weiboのエンジニアが600以上の「家族の再会」を支援したとされる一方、無断で故人の姿を再現された家族の怒りも紹介されています。

digital ghostを評価するための、9つの観点

著者らは、digital ghostsを評価するにあたって、少なくとも以下の9つの観点から見るべきであると主張しています。

  • Timing(作成時期):生前に作成したのか、死後に作成されたのか

  • Consent(同意):本人の同意があるか、家族等による代理の同意があるか、もしくは同意が得られていない状況か

  • Source(s) of data(データ元):本人が提供したデータか、死後のデジタルの痕跡か、それとも第三者によるアップロードか

  • Interaction(相互作用):テキスト、音声、動画、もしくは複数の組み合わせ(マルチモーダル)、対話のレベルなど

  • Fidelity and disclosure(再現度と情報の開示):どれだけ本人らしい出来か、および人工生成物であることを明示しているか

  • Purpose(目的):グリーフケア、遺産の継承、教育、娯楽、法的な用途など

  • Audience and access(対象とアクセス範囲):家族限定か、公衆に対して公開するのか

  • Governance and ownership(管理と所有):家族、企業、公的機関など、誰が(どこが)コントロールするのか

  • Autonomy and behavioral agency(自律性・行動主体性):単純に応答するだけなのか、自発的に会話を開始したり変化を起こしたりするのか

AIで故人を再現すること自体を善悪で裁こうとしているわけではない点がポイントです。論文では、「どんな目的で、誰の同意のもと、どのデータを使い、どこまで本人らしさを追求し、誰が制御するのか」といった設計次第で、倫理的妥当性が大きく変わると主張されています。

digital ghostを、4つのタイプに分類する

先程の9つの観点から、論文ではdigital ghostを以下の4つのタイプに分けています。

  • Legacy Avatars
    本人が生きているうちに準備し、本人のはっきりした同意があり、本人が提供したデータを使い、主に家族が管理するタイプ。こうした形は、比較的ルールの整備がしやすく、倫理的配慮もしやすい。

  • Private Griefbots
    本人の死後に作られ、本人の同意がないまま、あるいは家族などの代理の同意で作られることが多く、SNSやメッセージなどのデジタルの痕跡が使われやすいタイプ。会話のやり取りが自然になりやすいため、倫理的な問題は大きくなりやすいと考えられる。

  • Celebrity Simulations
    有名人を再現するタイプ。公に残っている映像や記録が使われる一方で、「これはAIによる生成である」と十分に示されないまま使われるリスクがある。

  • Institutional Avatars
    教育や法的な場面などの「制度の中」で使われるタイプ。そのぶん慎重な管理が求められる。

digital ghostが生むリスク

大切な人を失ったとき、最も生じやすい感情として「悲しみ」が挙げられますが、著者らはこの悲しみに関して、亡くなった人とのつながりを感じ続けること自体は珍しいことではないと説明しています。
先行研究では、約96%の人が夢の中やお墓の前などで故人とのつながりを感じているとされています [1] 。

しかし、AIがそこに返事をする場合は話が変わってきます。
たしかに慰めになる可能性はありますが、その一方で、死を受け入れる過程を長引かせたり、AIを本当に故人のように感じてしまったりするリスクもあります。
著者らは、この部分に「記憶を支えること」と「現実をあいまいにしてしまうこと」との曖昧な境界線があると見ています。

著者らが提案する、適切なdigital ghostの条件

論文では、次のような条件が必要と述べられています。

  • 本人が生前に意思を示していること

  • 関係者らの同意があること

  • データの利用が必要最小限、かつデータを利用したことが明記されていること

  • AIが生成したコンテンツであることが、明確に示されていること

  • 利用目的や利用できる人が限定されていること

  • 家族や遺産の管理を担う人が管理すること

  • AIが勝手に広く振る舞いすぎないこと

特に重要なのは、AIは故人を保存するものであって、作り変えるものではないという考え方です。新しい記憶を勝手に作ったり、本人なら絶対に言わなかったであろうことを発言させたりするべきではなく、あくまで限られた記録を補助的に残すものとして扱うべきであると主張されています。

記事の前半でも紹介しましたが、論文ではChristopher Pelkeyの法廷内アバターの例が取り上げられています。著者らは、この事例を単に珍しい話として紹介しているわけではなく、「本当に本人の考えを正しく表現しているのか」という観点から厳しく見ています。
確かに、死の直前や死に至る経験によって考え方が変わる可能性はありますが、その体験そのものはデータとして残っていません。ゆえに、AIアバターが「本人ならこう話した」と言っていても、それを本当に本人の言葉だとみなすのは難しいため、こうした用途でdigital ghostを作成するのは認めるべきではないと述べています。

また、論文では商業化のリスクについても言及されています。
例えば、悲しみの中にいる人に対して「もう一度会いたいですよね」「また話したいですよね」と市場が働きかけることは搾取につながる可能性があるため、著者らは「同意」「データ利用」「年齢制限」「マーケティング」などについて、適切な規制と専門職によるルール作り(ガイドライン)が必要であると結論づけています。


digital ghostに、故人の心は存在しない

冒頭の記事の「『故人を再現したAI』の重大なリスク」という見出しの下に、以下のようなことを書きました。

あくまで個人的な意見になりますが、この方法には重大なリスクが存在します。

本来必要な「死の受容」を妨げ、悲嘆のプロセスを長引かせる。
AIに依存し、現実の人間関係や社会復帰を阻害する。
ハルシネーションにより、「裏切られた」「偽物だ」という新たな苦しみを生むリスク。
遺族の中でも「救われる人」と「傷つく人」に分かれ、対立の火種になる可能性もある。

目の前の画面にいるのは、自分の大切な人ではなく、自分の大切な人の情報をもとに構築されたAIに過ぎません。一見従来と同じようなコミュニケーションが取れているように錯覚しますが、実際行われているのは、アルゴリズムに基づいた回答内容の生成です。

これらの事実から目を背けてAIチャットボットに依存してしまった場合、一時的に悲しみが癒えたように感じるかもしれませんが、本当の意味での「癒し」に永遠に辿り着くことができません。「大切な人を失った悲しみ」が、永遠に整理されることがないからです。

また、生命倫理の観点からも推奨されるべきではないでしょう。
この点に関してはうまく言葉にできませんが、「生命への冒涜」にあたると私は考えます。

よって、これらの理由から、私は故人の同意なく「故人を再現したAI」を作成することに関しては、反対の立場です。

記事「永遠に葬られぬ声─AI時代のグリーフケアと倫理」より一部引用

この中の「生命への冒涜」という考えは非常に曖昧でしたが、私は今回の論文を読んでみて、

  • 本人の意思を無視している

  • 本人ではないものを本人のように振る舞わせている

  • 商業利用している

  • 死を受け止める営みを消費の対象にしている

  • 家族や社会を欺いている

  • 故人の尊厳を損なっている

このような理由で「生命への冒涜」と感じていたのかもしれないと思いました。実際、今回紹介した論文も「このようなプロセスによるdigital ghostの生成はすべきではない」という立場を取っています。

また、引用の最後の部分で「故人の同意なく」と前置きしていますが、著者らが提案するdigital ghostの条件にもあった通り、故人が生前に明確に意思表示しているならば、digital ghostの生成を「検討する必要がある」と考えます。

ただし、本人の意思表示の内容や考えを逸脱しないよう慎重に生成を進め、生成されたdigital ghostはあくまで記録という位置づけにとどめておくべきでしょう。
繰り返しになりますが、digital ghostは「AIによる生成物」であり、そこに故人の心は存在しないということを絶対に忘れてはいけません。


参考文献

[1] Klugman, C. M. (2006). Dead men talking: Evidence of post death contact and continuing bonds. Omega: Journal of Death and Dying, 53(3), 249–262.
https://doi.org/10.2190/40UP-PKC5-D4RV-E1QV


最後までお読みいただき、ありがとうございました。
Webサイト「薬剤師のためのAIノート」も、是非ご覧ください。

記事に関する内容以外のお問い合わせは、以下のフォームよりお願いいたします。

また、書籍「超知能時代の調剤薬局」発売中です。
Kindle Unlimited会員の方は無料で読むことができます。


ダウンロード
copy

いいなと思ったら応援しよう!

チップで応援する
31