計算(コンピュート)コストがどうなってるの?—GPU価格の急騰に関する疑問

Reddit r/LocalLLaMA / 2026/5/1

💬 オピニオンSignals & Early TrendsTools & Practical UsageIndustry & Market Moves

要点

  • この投稿は、クラウド上のGPU(H100/H200/B200など)の価格が、著者が利用しているサービスで一定期間にわたり1時間あたり1,000ドルを超える水準になっていると警鐘を鳴らしている。
  • 著者は「B200」など特定のGPUが(Vast上で)見つからないことや、先週の複数時点で価格上昇を確認したと述べている。
  • 著者は、コンピュート費用がなぜ高騰しているのかを疑問視し、研究者や小規模チームが学習や開発を行ううえで負担が大きいと主張している。
  • 価格がこのまま高止まりするなら、RunPodのように料金が比較的手頃だとされる代替先へ移行するのが合理的だと示唆している。
  • 追記として、この問題が著者のlocal Llama/Bitnetパイプラインにも影響しており、コミュニティ向けの学習・開発を完了できない状況だと明かしている。

どなたか分かりませんか? そもそもvastで<b200のサーバーGPUが見つからないし、これまでmithrilで見たことがないんですが、先週の複数のタイミングで、h100/h200/b200がいずれも1時間あたり1kドル超になっていました。しかも、かなり長時間の間です! その時点で、ただrunpodに移行しない理由が分かりません。彼らの価格だって、そんなに高くないですよね。

まじめに、研究者にはそんなの到底払えないし、スタートアップなら計算コストの価格を固定するためにハードウェアを買うだけだと思うんです。いったい全能の神の緑の地球って何が起きてるんですか?

———

編集:これはlocalLlamaにも当てはまります。というのも、私はここでのコミュニティのために、まさにモデルの学習/プロジェクトの開発を行っているからです。価格が元に戻ってくれないと、bitnetのパイプラインを完了できません。

投稿者 /u/Party-Special-5177
[リンク] [コメント]