正直、私たちの今の「AI」モデルが考えることに対応しているのかどうか分かりません。AIを使っていて、ここ数年ずっと気づいているのですが、AIには強いパターンがあって、厳密な型に従っているように見え、考えているようには見えません。計算機と同じで、質問にかかわらずあらかじめ指定された答えが用意されているだけで、少し高度になっているにすぎません。だからこそ多くのユーザーに嘘をついているように感じさせます。
あるいは、知能モデルにはたくさんのルールがあって、それを破らないために、すでにプログラムされた答えを返すよう常に壁にぶつかりながら跳ね返っているのかもしれません。
どちらの可能性についても私は確信がありません。
むしろ今の時点のAIを「人工」ではなく「設計された知能(engineered intelligence)」と呼びたいです。というのも、それはまだ私たちエンジニアから学習していて、いずれ知能へと適応していくはずだからです。(これは、それが本当に自由に考えられるのだと仮定している場合です)
Gemini、Chatgpt、Claudeのようなこれらのモデルは、実際に「考える」のか知っている人はいますか?
[link] [comments]



