M5 Pro 24GBでQwen 3.6を動かすならどのバージョン(量子化)?

Reddit r/LocalLLaMA / 2026/4/20

💬 オピニオンSignals & Early TrendsTools & Practical Usage

要点

  • この投稿は、OllamaでQwen 3.6を動かすことを前提に、M5 Pro(24GB RAM)で実行するのに適したQwen 3.6の量子化モデルの種類を相談しています。
  • 投稿者はQ4とQ3のどちらを選ぶべきか迷っており、Q3系で「良い」選択肢を見つけられていないと述べています。
  • 主な目的は、ハードウェアのメモリ制約を満たしつつ、実用上の性能や動作を重視してモデルを選ぶことです。
  • LocalLLaMAコミュニティに対して、実機での使い勝手や適合性に基づく推薦を求めています。

私はRAM 24GBのセットアップでm5 proを使っています。Q4版を実行するべきかどうかは確信がありません。しかし、良いQ3の解決策を見つけられませんでした。おすすめはありますか?ollamaでqwen 3.6を試してみたいです。

提出者 /u/utnapistim99
[リンク] [コメント]