マジで、ChatGPTだけじゃないんだよね……Claude、Grok、Gemini……どれも前よりずっと行動が制限されてる感じがする。
正直、全然わからない。
この技術にほぼ数兆円を注ぎ込んだのに、結局半分くらいの時間は使い物にならないレベルで“ギリギリ使えない”感があるのって、何が目的なんだろう?
しかも俺は文字通りお金を払ってる。
企業側は、全員がプログラマーで、プログラミングのためにだけ使うって前提で考えてるように感じる。
でも多くの人は、ただ創造的になりたいだけなんだよ。物語を書いたり、アイデアを試したり、あるいは単にちょっと遊びたいだけで、毎2秒ごとに壁にぶつかりたくない。
俺は爆弾の作り方とか、そういう不正なことを聞きたいわけじゃない。
ただ、AIが「今まさに重罪を犯すぞ」みたいな態度で振る舞わずに、ものを作りたいだけ。
で、「ローカルモデルを使えば?」って言われる前に……いや。高価なハードウェアを置いてある人ばかりじゃない。サブスクが存在するのには理由がある。
この安全対策ってのは理解してるけど、これはさすがにバカげてる……。
だからさ……これって、良くなる見込みあるの?
AIが、いつも超安全運転して遊んでるだけじゃなくて、実際の意図を理解できるくらい賢くなるのは将来的にありえる?
それとも、今後ずっとこんな感じになっていくの?
だってこれが未来なら……正直、ちょっと残念だ
これじゃない……
[link] [comments]



