ChatGPTのボイスモードはより弱いモデルだ

Simon Willison's Blog / 2026/4/11

💬 オピニオンSignals & Early TrendsIdeas & Deep AnalysisModels & Research

要点

  • この投稿は、ChatGPTのボイスモードが、多くのユーザーが想定しているよりも古くて弱い下位モデルを使用しており、そのため推論能力が限定的に感じられると主張している。
  • ボイスモードは「2024年4月の知識カットオフ」を報告しており、著者はそれを、最新の能力というよりGPT-4oの時期のモデルに結び付けている。
  • 著者は、この体験をより大きな傾向として関連付けている。つまり、ユーザーは「アクセスの入口(access points)やドメイン(domains)」によって異なるモデル階層(モデルティア)に触れるため、能力差があるように見えてしまうのだという。
  • Karpathyのツイートを引用しつつ、この投稿は、一般向けの場面(例:気軽な質問)ではパフォーマンスが弱い一方で、有料の高ティア、または専門的なコーディング/セキュリティの文脈ではより強いと対比している。
  • ドメイン固有の報酬/フィードバック機構や、B2Bにおけるインセンティブ(例:ユニットテストでの検証可能性)が、そうした価値の高い領域での改善を加速させると示唆している。
スポンサー: Teleport — Teleport Beamsで数秒であなたのインフラにエージェントを接続。組み込みのID。秘密情報ゼロ。 早期アクセスを得る

2026年4月10日

OpenAIの音声モードが、実際にはずっと古く、はるかに弱いモデルで動いていることは、多くの人にとって分かりにくいと思います。話しかけられるAIが最も賢いAIであるべきだと感じますが、実際にはそうではありません。

ChatGPTの音声モードに知識のカットオフ日を聞くと「2024年4月」と答えます。これはGPT-4o時代のモデルです。

この考えは、モデルにアクセスするための入口やドメインに基づいてAI能力の理解のギャップが広がっていることについて書いたこのアンドレイ・カラパシのツイートに触発されました:

[...] 本当にその同じ状況で、一方ではOpenAIの無料で、しかも(たぶん)やや“孤児化”した(?)「Advanced Voice Mode」が、あなたのInstagramのリール内での一番バカみたいな質問にはつまずくのに、同時に、OpenAIの最上位で有料のCodexモデルは、1時間かけてコードベース全体を筋の通った形に作り直したり、コンピュータシステムの脆弱性を見つけて悪用したりするのです。

この部分は本当に機能していて、2つの特性のおかげで劇的に進歩しました:

  1. これらのドメインは、検証可能な明示的な報酬関数を提供するためです。つまり、ユニットテストが通ったかどうかは「はい/いいえ」で明確に強化学習の訓練に向いています(それに対して文章作成は、明示的に評価するのがはるかに難しい)。しかし
  2. それらはB2Bの文脈でははるかに価値が高く、つまりチームの最大の割合が、それらの改善に集中しているということです。
2026年4月10日 2026年4月10日 15:56に投稿

これは、Simon Willisonによるで、2026年4月10日に投稿されました。

ai 1955 openai 405 andrej-karpathy 42 generative-ai 1735 chatgpt 193 llms 1702

月次ブリーフィング

月10ドルでスポンサーになって、今月の最も重要なLLMの動向を厳選したメール・ダイジェストを受け取ってください。

僕に、あなたに送る量を減らすための仕事をしてもらいましょう!

スポンサー&購読する