ねえ、
ローカルでLLMを使うために、ハードウェアをアップグレードしようと考えています。まだ、どの解決策にするかは確信がありません。
予算はだいたい€6,500です。
128 GBのユニファイドメモリを搭載したMacBook Pro M5 Maxの購入を検討しています。聞いたところによると、これは最大のモデルを読み込むのに最適な解決策のようです(テキスト処理はね。画像については、たぶん私の4090のほうがまだ良い選択です?)。
電力消費は、デュアルGPUのような何かを組み合わせる場合よりもかなり低くなるはずで、長期的にはテキスト処理のためにそこまで過剰かもしれません(それに机の上のスペースももう限界なんですよね、笑?)。
Acemagic M1A Pro+ や Beelink GTR9 Pro AMD Ryzen AI Max+ 395 のようなシステムのことも聞いたことがあります。私の予算なら、これらを2台分近く買えそうです(笑)。でも、こういうものはたぶんもっとうるさいですよね?
みなさん、何かおすすめはありますか?どれがより将来性がありますか?どれがより良い性能を出しますか(MacのMLXか、AMDでGGUFか?)
主な用途は、AIに定型的なプログラミングを担当させることです(Qwen Coder Next や Gemma4、あるいは今後登場するその他のモデルなど)。
ほかに見落としている選択肢はありますか?4基の3090(中古)を買ってクアッド構成にするのはどうでしょう?
[link] [comments]




