2026年4月中旬の時点で、すべてのモデルに大きな知能の低下が起きているのを見つけました。
そしていいえ、私が話しているのはChatGPTだけではありません。
Claude(Sonnetに加えてOpus)、Gemini、z.ai、Grokなど、すべてが基本的な指示を無視し、単純なタスクに苦戦し、応答がとても遅くなり、出力は意図的に短くされていて非常に浅いように見えます。「不機嫌(grumpy)」なモードに入っているみたいです。カスタマイズや記憶の影響ではないことを確認するため、シークレット(incognito)モードでも試しました。
彼らが、あなたに自社のサービスの利用をやめさせたいように思えます。たぶん、もう私たちのデータは不要になったのでしょう。つい2週間前までは、これよりずっと賢かったのに。
これを確かめるために、H100をレンタルして、同じプロンプト(洗車場の車を洗いに行く話のやつ)で、両方の環境に対してGLM 5を試しました。レンタルしたGPU上で動くGLM5は、z.ai上のものと比べて正しく答えました。
彼らは量子化を本当にかなり低く、たとえばQ2くらいまで下げてしまったのでしょうか?
たぶんローカルで動かすか、GPUをレンタルするか、あるいは量子化レベルを選べるAIの月額サービスを使うのが道でしょう
[link] [comments]




