2026年4月10日
OpenAIの音声モードが、実際にはずっと古く、はるかに弱いモデルで動いていることは、多くの人にとって分かりにくいと思います。話しかけられるAIが最も賢いAIであるべきだと感じますが、実際にはそうではありません。
ChatGPTの音声モードに知識のカットオフ日を聞くと「2024年4月」と答えます。これはGPT-4o時代のモデルです。
この考えは、モデルにアクセスするための入口やドメインに基づいてAI能力の理解のギャップが広がっていることについて書いたこのアンドレイ・カラパシのツイートに触発されました:
[...] 本当にその同じ状況で、一方ではOpenAIの無料で、しかも(たぶん)やや“孤児化”した(?)「Advanced Voice Mode」が、あなたのInstagramのリール内での一番バカみたいな質問にはつまずくのに、同時に、OpenAIの最上位で有料のCodexモデルは、1時間かけてコードベース全体を筋の通った形に作り直したり、コンピュータシステムの脆弱性を見つけて悪用したりするのです。
この部分は本当に機能していて、2つの特性のおかげで劇的に進歩しました:
- これらのドメインは、検証可能な明示的な報酬関数を提供するためです。つまり、ユニットテストが通ったかどうかは「はい/いいえ」で明確に強化学習の訓練に向いています(それに対して文章作成は、明示的に評価するのがはるかに難しい)。しかし
- それらはB2Bの文脈でははるかに価値が高く、つまりチームの最大の割合が、それらの改善に集中しているということです。
最近の記事
これは、Simon Willisonによる注で、2026年4月10日に投稿されました。
ai 1955 openai 405 andrej-karpathy 42 generative-ai 1735 chatgpt 193 llms 1702月次ブリーフィング
月10ドルでスポンサーになって、今月の最も重要なLLMの動向を厳選したメール・ダイジェストを受け取ってください。
僕に、あなたに送る量を減らすための仕事をしてもらいましょう!
スポンサー&購読する