こんにちは!
私はしばらくの間、LLMをいじっており、最近5070ti(16 GB)にアップグレードしました。古い4060(8 GB)と比べて新鮮な気分ですが、今はもう少しVRAMが欲しいと感じています。市場を探してみたところ、3060(12 GB)はかなり良さそうな選択肢のようです。
これは古いGPUだと知っていますが、それでもCPUオフロードよりはまだ良いはずですよね?これらのGPUは私の自宅サーバーに入れる予定なので、予算を抑えつつ使おうとしています。私は推論とモデルのトレーニングを行うためにそれらを使用する予定です。
CUDAドライバの互換性、推論エンジンの互換性、またはGPU間通信で問題が起きる可能性はあると思いますか?異なるアーキテクチャを混在させることには少し不安を感じています。
また、温度についても心配です。私のマザーボードでは、最初のGPUからの熱い取り込み風がそのまま二番目のGPUに入っていくことになります。私の5070tiは負荷時に通常75°Cを超えることはないので、3060はその熱い取り込み風に耐えられるでしょうか?
[リンク] [コメント]




