8x2080Ti 22GB は良いアイデアか?

Reddit r/LocalLLaMA / 2026/3/23

💬 オピニオンDeveloper Stack & InfrastructureIdeas & Deep AnalysisTools & Practical Usage

要点

  • 著者は、ESC8000A-E12 サーバー(現在は 2 台の 2080Ti を搭載)に 2080Ti 22GB GPU をさらに 6 台追加して、全 8 スロットを埋め、VRAM を合計 176GB にして 2,000ドル未満で収めることを検討しています。
  • Turing 世代の 2080Ti は BF16/FA2 対応がないことを認識しており、現代の LLM ワークロードにおいて長期的な耐用性や互換性の問題が生じる可能性があります。
  • RTX 5060Ti 16GB のような代替案は、より新しいアーキテクチャのため 1GPU あたりの性能が向上しますが、費用はおおよそ 2 倍程度かかり、既存の 2 台の GPU を捨てる必要があります。
  • 1 台の RTX 4090(48GB)は魅力的かもしれませんが、8x2080Ti の計画全体の費用を超える可能性が高く、コストパフォーマンスと用途における総メモリ量について検討が必要です。
  • この投稿は、最適な進路についてコミュニティからの提案や指針を求めています。

ええと、ちょっと聞いてください。ここにはかなりユニークな状況があり、良いおすすめをお願いします。

現在、8枚のH100をホストするように設計されたサーバー(ESC8000A-E12)を所有しており、すでに22GBのVRAMを搭載した2枚の2080TIで動作しています。これはStable Diffusionが流行っていた時代のずいぶん前に手に入れたもので、これ上でLLMsを動かすというアイデア(ChatGPTは当時ただの話題に過ぎませんでした)が頭に浮かんだことはありませんでした。

現在では、みんながローカルのハードウェアでLLMをデプロイしており、私は現在、残りの6つのGPUスロットを埋めて機械を“完成”させることを考えています。1枚あたり約290ドルで信頼できる2080TI 22GBを入手可能です。これにより、約2,000ドル未満で176GBのVRAMを手に入れることができます。

しかし、Turingは非常に古いアーキテクチャで、BF16(FP16のみ)やFA2すらサポートしていません。代替案を比較する目的でこのRedditをしばらく見てきました。私が持っている中で最良なのは5060ti 16GBで、FP4のサポートとより良いアーキテクチャのおかげで、1 GPUあたりの性能を上回る可能性があります。ただし5060ti 16GBは2080TI 22GBの2倍の価格で、現在ある2枚を廃棄して置き換える必要があります。とはいえ、Turingのサポートが今後低下し続ける場合の長寿命にも懸念があります。

48GBを搭載する4090は魅力的に聞こえますが、1枚だけで2080TI 22GBを8枚分以上の費用がかかってしまう。

いかなる提案も歓迎します。よろしくお願いします!

投稿者 /u/PossiblePossible2571
[リンク] [コメント]