というわけで、ローカルLLMを生成するために、RTX 6000からMac Studio 512gb M3 ultra、(移動が必要なので)DGX Sparkまで、とにかくいろいろ買うことを探ってきました。そろそろM5のMacBookを調べ始めようとしていたのですが、皆さんが待っているものは何かありますか?と聞いてみようと思いました。
[リンク] [コメント]
Reddit r/LocalLLaMA / 2026/4/26
というわけで、ローカルLLMを生成するために、RTX 6000からMac Studio 512gb M3 ultra、(移動が必要なので)DGX Sparkまで、とにかくいろいろ買うことを探ってきました。そろそろM5のMacBookを調べ始めようとしていたのですが、皆さんが待っているものは何かありますか?と聞いてみようと思いました。