128GBのMacBook Proに、正直ちょっとがっかりしている

Reddit r/LocalLLaMA / 2026/4/5

💬 オピニオンSignals & Early TrendsTools & Practical Usage

要点

  • ユーザーは、M5 Max 128GBのMacBook ProでローカルのコーディングLLM用途を行う場合、他の人はどう作業しているかを質問しており、14インチの筐体サイズは問題ではないだろうと述べています。
  • 彼らは、Cursorの「auto」モデルが、複数のローカルにダウンロードしたQwenやGLMの選択肢よりも優れていると報告しており、モデルの選び方や性能にばらつきがあることを示唆しています。
  • ユーザーはコミュニティのセットアップ手順の案内を期待しており、ローカル生成が約~50 tok/sで始まるものの、その後は極端に遅くなると述べています。
  • 彼らはこの話題に不慣れだと自己紹介し、初心者にも分かりやすい回答を求めています。これは、ローカルLLMの導入や調整には学習曲線があることを示しています。

みなさんは m5 Max 128GB Pro をどう使っていますか?私は14インチを持っているのですが、サイズが問題だとは思えません。それでも、ローカルで動かすのに納得できるコーディング用のモデルが見つかりません。「Cursor」の「auto」モデルが、私がダウンロードした Qwen や GLM のどれよりも性能が良いです。新しい Gemma はまだ試していませんが、主に、セットアップを誰かが共有してくれないかなと思っています。というのも、最初はだいたい50トークン/秒くらい出るのに、その後は信じられないくらい急に遅くなるからです。私はこれに超初心者なので、どうか優しくしてください。

submitted by /u/F1Drivatar
[リンク] [コメント]

128GBのMacBook Proに、正直ちょっとがっかりしている | AI Navigate