本番のAIコストはデモとまったく違う

Reddit r/MachineLearning / 2026/5/6

💬 オピニオンDeveloper Stack & InfrastructureSignals & Early TrendsIndustry & Market Moves

要点

  • 著者は、AI機能はデモや初期プロトタイプでは安く見えても、本番ではアクセス量の増加や顧客の長く不明確な質問、さらに入力長を倍増させるコンテキスト検索の追加などにより、コストが大きく膨らみ得ることを実感した。
  • GPT-4oで始めたことで初期の応答品質は十分だったが、利用量が増えるにつれて請求額が想定より高くなり、会計・予算管理が難しくなった。
  • OpenAIのダッシュボードは総額は示す一方で、どの機能やモデルがコスト増を引き起こしているのかを特定できないため、著者はトークンのエクスポートを製品機能へ手作業で対応づける必要がある。
  • 著者は事実上「コストの責任者」になり、毎週かなりの時間をかけてトークン数と機能利用を突合しているが、引き渡す数値への確信はまだ十分ではない。

数か月前にAI機能を本番投入しましたが、それ以来、コストのプロファイルがずっと予想外でした。最初のデモや初期プロトタイプは、ボリュームが小さく、さらにプロンプトも短かったので安く済んでいたのです。しかし、アクセスが増えてくると、トークン使用量は大きくスケールしました。おそらく一部には、テストセットよりも顧客の方がより長く、分かりにくい質問をするためだと思います。その結果、呼び出しのたびに入力長が倍になるコンテキスト取得を追加することになりました。

初期バージョンではGPT4oから始めました。応答品質が十分に良く、誰も反対しなかったのですが、数週間ボリュームが出た後に請求書が届くと、想定より高額で、経理にはそれがどの機能やどのモデルによって引き起こされたのかを切り分ける方法がありませんでした。私はOpenAIのダッシュボードからエクスポートを取り出して、機能に手作業で対応付けようとしていますが、それは持続可能ではありません。
私はその機能を出荷しましたが、今はコストの問題に関して事実上のオーナーになっています。OpenAIのダッシュボードは合計は教えてくれますが、私が実際に答える必要のある情報は教えてくれません。毎週半日を、トークン数を機能の利用状況と突き合わせることに費やしていますが、引き渡す数字にまだ自信がありません。

によって投稿 /u/Far-Football3763
[リンク] [コメント]