広告

Claudeの「秘訣」は何なのか、そしてなぜ誰もそれを再現できていないのか?

Reddit r/LocalLLaMA / 2026/3/30

💬 オピニオンSignals & Early TrendsIdeas & Deep AnalysisModels & Research

要点

  • Redditのユーザーは、Claudeの会話の振る舞いが非常に独特で、Claudeのシステムプロンプトを別のモデルへ単に移すだけでは再現できないようだと主張している(Sonnet 4.5のプロンプトを使ってQwen3.5 27Bを試した)。
  • ユーザーは、Claudeの「思考の痕跡(thinking traces)」を他のモデルへ蒸留しようとする試みが説得力のある結果につながっていないとし、その独特なスタイルはそのやり方では簡単に捉えられないのではないかと示唆している。
  • promptsだけでは、観測できるフォーマットや冗長性(verbosity)パターンが一致しなかったため、アーキテクチャの違い、モデル規模、または学習データがClaudeのような「話し方」や「雰囲気」に寄与しているのかを疑問視している。
  • この投稿では、箇条書きや絵文字を避ける傾向、特定の応答の長さ/カバー範囲に関する振る舞いなど、ユーザーが目にした具体的な不一致が強調されている。
  • 全体として、この文章は、LLM間でClaudeのコミュニケーション・スタイルを再現しにくい要因は何かという、未解決の問いとして構成されている。

Claudeと会話してみて気づいたのですが、それが話し方の点でとてもとても特徴的です。私が知っている他のいくつかのLLMより、はるかに「個性」があります。同じシステムプロンプト「Sonnet 4.5」をQwen3.5 27Bにそのまま与えても、その振る舞いは変わらなかったので、システムプロンプトが大きく作用している可能性は除外しました。

Claudeの回答/思考トレースが別のモデルに蒸留されたと主張するものを、たくさんたくさん見てきましたが、テストしてみると正直…がっかりです。私はあちこち探しましたが、何かを見落としていない限り(見落としていたらごめんなさい…そうでないことを願っています)、次の問いをするのは妥当だと思います:

なぜClaudeのように話すモデルを作れないのでしょうか?

それは推論というより、ただの「話し方のスタイル」や「雰囲気」であって、ClaudeのAPI/Web UIからはそれ自体が隠されているわけでもありません。単に、どう頑張ってもモデルがClaudeのように話せないような、何らかのアーキテクチャの違いが偶然あるのでしょうか? それとも、モデルサイズの問題に加えて、良いシステムプロンプト(きちんと指示すれば、>200BモデルならClaudeのように話せる)みたいなものが必要なのでしょうか?

私はシステムプロンプトを試すことに、あまりにも長い時間を費やしてきました。でもモデルはいつも次を見逃します:
- フォーマット(Claudeは絵文字から逸れがちで、他のモデルと比べて箇条書きをできるだけ使わないようにしているのを見つけました)
- 回答の長さ(たとえば、Satinが何であるかについて5段落も延々と語ったりするのに、Gated DeltaNetsについては1))

ありがとうございます!

submitted by /u/ComplexType568
[link] [comments]

広告