大企業は、AIが重大な危険を引き起こしうると自分たちで言っているのに、なぜ今もAIを作っているのか?

Reddit r/artificial / 2026/4/24

💬 オピニオンSignals & Early TrendsIdeas & Deep Analysis

要点

  • この投稿は、AIが本当に絶滅レベルのリスクをもたらすのか、それとも著名人による主張が主に恐怖をあおるものにすぎないのかを問いかけています。
  • サム・アルトマンやAnthropic共同創業者、イーロン・マスクなどの発言を挙げ、AGIのような深刻な危険性が語られていることを示しています。
  • 投稿の中心は、大企業が潜在的な害を認めながらもなぜAI開発を続けるのか、という疑問です。
  • 著者は、AIを「安全な範囲」までにとどめて開発する現実的な方策があるのではないか、という点を検討しています。
  • 著者は学生であるとして、知識のある人たちからこのテーマについての説明や見解を求めています。

みなさんこんにちは。質問の前に言っておきたいのですが、私はLLM(大規模言語モデル)やAIについて詳しく知っているような人ではありません。単に興味があって、少しだけ腹立たしくもあります。

種としての人類に対して危険を引き起こしうると、彼ら自身が分かっているのに、なぜ大企業はAIを作っているのでしょうか。私はサム・アルトマンや、アンスロピックの共同創業者がAGI(汎用人工知能)への懸念を口にしているのを見ましたし、イーロン・マスクもずっとそういうことを言い続けています。「AIは絶滅を引き起こすのか」というテーマの記事が何百本も書かれています。

まず第一に、これに何か本当のところはあるのでしょうか?それともただの恐怖をあおるだけなのでしょうか。

もし本当に、AIが深刻な“絶滅レベル”のリスクをもたらしうるのだとしたら、なぜこの会社たちはそれを作っているのですか?だって、ここまで来てなお進めるのって、もういちばん愚かではないですか??安全な範囲にとどめることはできないのでしょうか??

質問を読んでくださってありがとうございます!改めて言うと、私はただの学生で、この分野についてあまり詳しくありません。ここにいる詳しい方々から、ぜひ知恵の言葉を聞かせてもらえたら嬉しいです!

submitted by /u/justcurious112345
[link] [comments]