本当の話です。
仕事でAIを見かけたのをきっかけに興味を持ち、ローカルでモデルを動かしたいと思いました。最初はM3 Ultra 96GBから始めましたが、すぐに自分がやりたいことには足りないと分かり、ハードウェアをどんどん買い替えました(256GB/512GBのリファービッシュMac Studioを含み、そして今日届いたRTX Pro 6000も追加しました)。Qwen、DeepSeek、Gemma、Minimaxなど、さまざまなモデルファミリーを試しました。いま一番のお気に入りはMiniMax M2.7 230B/A10Bです。あわせて、DeepSeek v4 FlashについてLM Studioのサポートを待っています。
気持ちは複雑です。ローカルの速度や帯域幅の快適さにはワクワクしますが、このスタックの学習にどれだけお金を使ったかを思うと悲しくもなります。あとちょっと面白い点として、16GBのMacBook Proのほうが、512GB構成よりも安定していて、後者は何度もクラッシュしました。
とはいえ、ローカルLLMが将来だと確信していて、このコミュニティのおかげでたくさん学べました。ここにいる皆さんに感謝します。
質問です:高性能なローカル環境を動かしている人たちにとって、(ベンチマーク結果だけでなく)実際の現場での安定性と速度の最大の向上要因は何でしたか?
よければ、ベンチマークやスペックに重点を置いた、より技術的なバージョンもお伝えできます。
[link] [comments]




