広告

ジョルジ・ゲルガノフを引用して

Simon Willison's Blog / 2026/3/31

💬 オピニオンSignals & Early TrendsIdeas & Deep Analysis

要点

  • ジョルジ・ゲルガノフは、ローカルで運用されるモデルに関する最大の問題は、しばしば「ハーネス」層と、チャットテンプレート、プロンプトの構築、推論挙動における微妙な問題に起因すると主張しています。
  • 彼は、ローカルAIワークフローには、しばしば異なる当事者によって作られる多くのコンポーネントが連なっており、それらは壊れやすく、エンドツーエンドで推論しにくいと強調しています。
  • この引用は、観測された失敗の原因がモデルそのものだけではなく、スタックのどこにでも潜む微細な不具合である可能性があることを強調しています。
  • 全体として、この投稿は、コーディングエージェント向けのローカルLLMの成功を、モデル品質の問題だけでなく、統合と信頼性の課題として位置づけています。
提供: WorkOS — エンタープライズ顧客に販売する準備はできていますか? WorkOSで安全に構築して提供しましょう。

2026年3月30日

人々が現在、無自覚のうちにローカルモデルで直面している主な問題は、主にハーネスと、モデルのチャットテンプレートやプロンプト構築に関するいくつかの込み入った点に関わっています。場合によっては、純粋な推論のバグさえあります。クライアントでタスクを入力してから実際の結果に至るまでには、いまのところ脆いだけでなく、別々の当事者によって開発されているコンポーネントの長い連鎖があります。そのため、スタック全体を統合するのが難しく、さらに、いま自分が目にしているものが、その連鎖のどこかにおいて、非常に高い確率で、微妙な形でまだ壊れている可能性があることを念頭に置いておく必要があります。

Georgi Gerganov, コーディングエージェントとうまく連携できるローカルモデルを見つけるのが難しい理由を説明しているところ

2026年3月30日 30th March 2026 の午後9時31分に投稿

これは Simon Willison が収集した 引用です。 2026年3月30日 に投稿されました。

ai 1939 generative-ai 1720 local-llms 151 llms 1686 coding-agents 187 georgi-gerganov 8

広告