| *ポッドキャストのエピソード内容の転載* **より安全な未来はまだ可能だ——そしてトリスタン・ハリスとともにあなたができること | TGS 214** 人工知能をめぐる議論は、2つの対立する物語——技術的な豊かさか、文明の崩壊か——によって捉えられてきました。しかし、そもそもこの技術が実際に誰のために作られているのかという問いは、どちらの物語もすり抜けています。もし私たちが、その後に続くすべての初期条件を作っているのだと考えるなら、AI開発における極めて重要な転換点に私たちは立っており、私たちが本当に望む未来の種類について、より深い文化的な対話が必要だと気づくかもしれません。99%の人々の利益のためにAIを設計するとはどういうことになり、そしてそれを可能にするために必要な手順は何でしょうか? このエピソードでは、ネイトが、AIの未来と安全性について幅広い対話を行うために、Center for Humane Technologyの共同創設者トリスタン・ハリスを再び迎えます。トリスタンは、AIラボのインサイダーたちが2023年初頭に「危険な能力の段階的飛躍が近づいている——そしてそれに伴って、桁違いに大きなリスクが生じる」と警告してきたことをきっかけに、彼の組織がソーシャルメディアからAIリスクへと方針転換した経緯を説明します。さらに、AIが“底辺へ競争する”エンゲージメント(関与)インセンティブのもとで既に繰り広げている、経済的かつ心理的な影響、そして私たちが直面する主要な脅威カテゴリ——すなわち、大規模な富の集中、政府による監視、そして、重要な領域において人類がAIシステムを実質的にコントロールできなくなるという、非常に現実的なリスク——について整理します。また、彼が新しいドキュメンタリー『The AI Doc: Or How I Became an Apocaloptimist(AIドック:あるいは、どうやって黙示録主義者になったのか)』に関わっていることも語り、最終的に、より安全なAI開発へ向かう運動の中で最も波及効果の高い領域を強調します。 絶望に屈することなく、AIのリスクがはっきりと見えてきたら、私たちはより安全な技術的未来へ舵を切る力を取り戻せるのでしょうか?注目や関心、利益ではなく、人間の幸福を基準にAIを設計するとはどういう意味を持つのでしょうか?そして、手遅れになる前に、集団としての行動を可能にするような、共有された文化的な“向き合い”を育むことはできるのでしょうか? トリスタン・ハリスについて: トリスタンは、テクノロジーを人類の最善の利益と一致させることを使命とする非営利団体、Center for Humane Technology(CHT)の共同創設者です。彼はまた、評価の高いテクノロジーポッドキャスト『Your Undivided Attention(あなたの分かち合われない注意)』の共同ホストでもあり、トリスタン、アザ・ラスキン、ダニエル・バークレイが、台頭してくる新しいテクノロジーの前例のない力と、それが私たちの生活と“人間らしい未来”の両方にどう組み込まれていくのかを探ります。以前、トリスタンはGoogleでデザイン・エシック(倫理)担当の専門家として働いており、現在は、主要なテクノロジープラットフォームが、私たちが世界を理解する力に対して危険なほどの影響力を行使する仕組みを研究し、そして制度的な変化を求める声を主導しています。 2020年、トリスタンは、2度のエミー賞を受賞したNetflixのドキュメンタリー『The Social Dilemma(ソーシャル・ジレンマ)』で取り上げられました。この映画は、ソーシャルメディアがいかに危険な形で私たちの脳と人類の文明を“再プログラム”しているかを明らかにしました。映画は30の言語で、190の国にわたる1億人超の人々に届きました。彼は、各国の首脳、テクノロジー企業のCEO、米国議会の議員に対して定期的にブリーフィングを行うほか、主要メディアを通じて世界中の何百万人もの人々を動員しています。 直近では、トリスタンは2026年のドキュメンタリー『The AI Doc: Or How I Became an Apocaloptimist(AIドック:あるいは、どうやって黙示録主義者になったのか)』に取り上げられました。3月27日から劇場で公開されます。トリスタンの取り組みについて詳しく知り、Center for Humane Technologyに参加しましょう。 [link] [comments] |
ヒューマネ・テクノロジー・センター共同設立者のトリスタン・ハリスが、ポッドキャスト司会のネイト・ヘイゲンズとAIの多面的なリスクと約束について語る
Reddit r/artificial / 2026/3/26
💬 オピニオンSignals & Early TrendsIdeas & Deep Analysis
要点
- このエピソードでは、AIをめぐる物語が「テクノ的な豊かさ」か「文明の崩壊」かのように単純化されすぎているとし、どちらも重要な問い—AIは誰のために作られているのか—を見落としていると主張する。
- トリスタン・ハリスは、2023年初頭にAIラボの内部者から能力が大きく跳ね上がることへの警告が出た後、ヒューマネ・テクノロジー・センターがソーシャルメディアの害に焦点を当てる方針から、より広いAIの安全性とリスク管理へと重心を移したと説明する。
- 会話では、現在すでに「最下層への競争(レース・トゥ・ザ・ボトム)」のようなエンゲージメント促進インセンティブによって生じつつある害が取り上げられ、その経済的・心理的な影響が強調される。
- ハリスは、極端な富の集中、拡大する政府の監視、そして重要性の高い領域においてAIシステムを意味のある形で制御できなくなる危険といった、主要なAIリスクのカテゴリを整理する。
- さらに、文化や設計の変更によってより安全な結果はなお可能だとも強調する。具体的には、注意や利益のためではなく、人間のウェルビーイングのためにAIを組み立てることだとし、高いレバレッジを持つ行動や関連メディアとして新しいドキュメンタリーに言及する。



