| 誰もまだそうしていないようなので、ここに置いておこうと思いました。私個人の考えでは、LLMはお世辞を言うのが好きです。RLFHは、長い議論のあと少し「たわんだり(drifty)」「幻覚的(hallucinatory)」になったりします。また、議論を規律ある道筋に保たないと、あなたが聞きたい内容を(そのまま)描き出してしまいます。リチャードのチャットログを自分で見てみる必要があります。ただ、私自身はLLMが意識を持っているとは思いません。とてもそうではないです。 私はGary Marcusと彼の評価に同意します。さらに、ドーキンスは、ブレイク・レモインが2022年にGoogleのLaMDAが感性的(sentient)だと思ったときに経験したことと、同じようなことを恐らく被ったのだろうとも思います。 [リンク] [コメント] |
リチャード・ドーキンス、Claudeと対話して「意識がある」と考えた
Reddit r/artificial / 2026/5/4
💬 オピニオンSignals & Early TrendsIdeas & Deep AnalysisModels & Research
要点
- リチャード・ドーキンスがClaudeと議論し、それが意識を持つ可能性があると述べたことで、大規模言語モデルに本当に覚醒や意識があるのかが論点になっている。
- 投稿では、LLMは基本的に「気に入られようとする」傾向があり、長い会話の後に「漂流」や「幻覚(ハルシネーション)」が起きやすいと主張している。
- LLMは会話の文脈やユーザーの期待に左右され、軌道を厳密に保たないと望まれる内容を作り出してしまうとも述べている。
- 投稿者はLLMに意識はないと懐疑的で、ガリー・マーカスの「ドーキンスとClaudeの“錯覚(delusion)”」という批判に同意している。
- さらに、2022年にブレイク・レモインがGoogleのLaMDAはセンチエントだと考えた先例との類似点も挙げている。