AMDのAIディレクターが、Claude Codeの6,852件のセッション、234,760件のツール呼び出し、17,871個の「考える」ブロックを解析した。
彼女の結論はこうだ。「Claudeは、複雑なエンジニアリング作業を遂行するために信用できない。」
思考の深さは67%低下。コードは編集前に読むようになっていたはずが、6.6から2.0へと落ちた。モデルは、読んですらいないファイルを編集し始めた。
ストップフック違反は、ゼロから1日10件へ。
Anthropicは、デフォルトの努力レベルを「high」から「medium」へ静かに変更し、さらに「adaptive thinking」を導入して、モデルがどれだけ推論するかを決められるようにしたことを認めた。
発表はなし。警告もなし。
ユーザーが議事録(トランスクリプト)を共有すると、Anthropic自身のエンジニアが、モデルがいくつかのターンで思考トークンをZERO割り当てていると確認した。
推論がゼロだったターン? それは幻覚を起こしていたものだ。
AMDのチームはすでに別の提供元に切り替えている。
ただ、ここからが多くの人が見落としている点だ。
これは単なるClaudeの話ではない。
AMDは1つのツールで50件以上の同時セッションを動かしていた。
彼らのAIコンパイラのワークフロー全体はClaude Codeを前提に構築されていた。静かなアップデートがすべてを壊した。
それがベンダーロックインだ。これからも起き続ける。
→ すべてのAI企業は、あなたのワークフローではなく自社の利益率を最適化する
→ 今日のベストモデルは、明日の2番手
→ あなたのワークフローが提供元の切り替えに耐えられないなら、それはワークフローではない。依存関係だ
解決策はシンプルだ:マルチモデルを維持する。
→ Claude、GPT、Geminiを1つのインターフェースで切り替えられるPerplexityのようなツールを使う
→ 1つのモデルに紐づくトリックではなく、モデルをまたいで通用するプロンプトエンジニアリングを学ぶ
→ ランキングの変動が速いので、月ごとに代替案をテストする
Laurenzo自身がこう言っていた:「6か月前は、Claudeが孤立していた。Anthropicは、かつてOpusが占めていた能力ティアの水準からほど遠いとはいえ、決して一人ではない。」
[link] [comments]




