初心者のAIに関する質問

Reddit r/artificial / 2026/5/1

💬 オピニオンIdeas & Deep Analysis

要点

  • 投稿者は、GeminiやChatGPT、ClaudeなどのAIが本当に「考える(think)」能力を持つのか疑問を投げかけ、厳格なパターンに沿って事前に決められたような回答を返すように見えると述べています。
  • AIが設計上のルールや安全上の制約によって制限され、その結果、自由な推論ではなく承認された応答に向かってしまう可能性を推測しています。
  • 投稿者は、AIを「人工知能」ではなく「engineered intelligence(設計された知性)」と呼び直すべきだと提案し、エンジニアの関与を通じて進化していくという考えを示しています。
  • その上で、これらのモデルが実際に「考える」のか、単なる表面的なパターン照合を超えて挙動をどう捉えるべきかを、他の人に説明してほしいと求めています。

正直、私たちの今の「AI」モデルが考えることに対応しているのかどうか分かりません。AIを使っていて、ここ数年ずっと気づいているのですが、AIには強いパターンがあって、厳密な型に従っているように見え、考えているようには見えません。計算機と同じで、質問にかかわらずあらかじめ指定された答えが用意されているだけで、少し高度になっているにすぎません。だからこそ多くのユーザーに嘘をついているように感じさせます。
あるいは、知能モデルにはたくさんのルールがあって、それを破らないために、すでにプログラムされた答えを返すよう常に壁にぶつかりながら跳ね返っているのかもしれません。
どちらの可能性についても私は確信がありません。
むしろ今の時点のAIを「人工」ではなく「設計された知能(engineered intelligence)」と呼びたいです。というのも、それはまだ私たちエンジニアから学習していて、いずれ知能へと適応していくはずだからです。(これは、それが本当に自由に考えられるのだと仮定している場合です)
Gemini、Chatgpt、Claudeのようなこれらのモデルは、実際に「考える」のか知っている人はいますか?

submitted by /u/Opening-Name-5270
[link] [comments]