みなさんこんにちは。質問の前に言っておきたいのですが、私はLLM(大規模言語モデル)やAIについて詳しく知っているような人ではありません。単に興味があって、少しだけ腹立たしくもあります。
種としての人類に対して危険を引き起こしうると、彼ら自身が分かっているのに、なぜ大企業はAIを作っているのでしょうか。私はサム・アルトマンや、アンスロピックの共同創業者がAGI(汎用人工知能)への懸念を口にしているのを見ましたし、イーロン・マスクもずっとそういうことを言い続けています。「AIは絶滅を引き起こすのか」というテーマの記事が何百本も書かれています。
まず第一に、これに何か本当のところはあるのでしょうか?それともただの恐怖をあおるだけなのでしょうか。
もし本当に、AIが深刻な“絶滅レベル”のリスクをもたらしうるのだとしたら、なぜこの会社たちはそれを作っているのですか?だって、ここまで来てなお進めるのって、もういちばん愚かではないですか??安全な範囲にとどめることはできないのでしょうか??
質問を読んでくださってありがとうございます!改めて言うと、私はただの学生で、この分野についてあまり詳しくありません。ここにいる詳しい方々から、ぜひ知恵の言葉を聞かせてもらえたら嬉しいです!
[link] [comments]




