128 GB の VRAM を搭載した 395+ のアイデアは良いと思いますが、より大きいモデルで推論する際の速度を考えると、正直それほど価値があるようには思えません。もしより大きいモデルの能力が必要になった場合は、クラウドの LM を使えば済むのではないでしょうか。
一方で、デュアルの 3090s なら、速度も十分にあり、かなりのサイズのモデルを手に入れられるので、エージェンティックなワークフローのような用途にははるかに向いています。
みなさんはどう思いますか?
[リンク] [コメント]
Reddit r/LocalLLaMA / 2026/4/13
128 GB の VRAM を搭載した 395+ のアイデアは良いと思いますが、より大きいモデルで推論する際の速度を考えると、正直それほど価値があるようには思えません。もしより大きいモデルの能力が必要になった場合は、クラウドの LM を使えば済むのではないでしょうか。
一方で、デュアルの 3090s なら、速度も十分にあり、かなりのサイズのモデルを手に入れられるので、エージェンティックなワークフローのような用途にははるかに向いています。
みなさんはどう思いますか?