AIを25年研究してきたイェールの倫理学者が語る「本当の危険は超知能ではなく、道徳的知能の欠如」

Reddit r/artificial / 2026/4/23

💬 オピニオンSignals & Early TrendsIdeas & Deep Analysis

要点

  • ヤール大学の倫理学者ウェンデル・ウォレスは、AIがもたらす最大のリスクは超知能そのものではなく「道徳的知能の欠如」だと主張しています。
  • AGIを目標に据えることは誤りになり得るとし、非常に高い知能を持っていても本来的な道徳的推論がほとんどないシステムがあり得ると述べています。
  • 彼は、AIがどんな決定を行える(または行いそう)かを十分に考えないまま、能力ばかりを追い求めている点を強調しています。
  • AIによる危害が起きた場合の責任(アカウンタビリティ)については、「結局のところ誰も責任を負わない」ことになりがちな理由を整理しており、その説明には反論しにくいと紹介されています。
  • 記事は全文インタビューの視聴を勧め、AI論争でよく見られる過激な両極端への対抗として位置づけています。

最近、ウェンデル・ウォーラックと座談する機会がありました。彼はChatGPT以前、あの熱狂が始まる前、そして大半のテック業界の人々がまだ注意を向けていない時代から、AI倫理の分野で取り組んできました。彼は『Moral Machines(モラル・マシン)』を書き、スチュアート・ラッセル、ヤン・ルカン、ダニエル・カーネマンとともに仕事をしてきました。彼はただのコメンテーターではありません。これらの問いに何十年も向き合ってきた人なのです。

私が会話の中で特に印象的だったのは、AGI(汎用人工知能)に関する彼の主張でした。不可能だとか必然だと言っているのではなく、それがまったく違う目標になっている、という点です。あるシステムが非常に高い知能を持っていても、道徳的な推論がゼロであることはあり得ます。私たちは「それが何を決められるのか」という問いをせずに、能力だけを積み上げているのです。

説明責任に関するセクションは、正直に言うと私を相当不安にさせました。AIが危害を引き起こしたとき、一体誰が実際に責任を負うのでしょうか。彼は、答えがほぼいつも「誰もいない」ことになる理由を、反論しにくい形で整理しています。

極端な議論にうんざりしているなら、ぜひ観る価値があります。

完全版インタビュー: https://youtu.be/-usWHtI-cms?si=NBkwN-AmIshOXJsX

submitted by /u/reesefinchjh
[link] [comments]