新しいローカルLLM環境:Ryzen 9700X+Radeon R9700。約120 tok/s!どのモデルが最適?

Reddit r/LocalLLaMA / 2026/4/20

💬 オピニオンDeveloper Stack & InfrastructureSignals & Early TrendsTools & Practical Usage

要点

  • ユーザーは、Ryzen 7 9700X、Radeon AI PRO R9700(32GB VRAM)、64GB DDR5、Fedora Workstation、LM Studio(Vulkanバックエンド)で構成したローカルLLM推論用の新しいワークステーションを共有しています。
  • シンプルなプロンプトで qwen3.6-35b-a3b を用いた際に、約120トークン/秒の安定した性能が出ていると報告しています。
  • ユーザーは、このハードウェアで快適に動かせる最大規模のモデル構成について助言を求めています。
  • さらに、より適性とパフォーマンスのために Q4_K_M の量子化設定を重視すべきかどうか疑問を持っています。
  • 投稿の本質は、構成に合わせたモデルと量子化のおすすめをコミュニティに相談する内容です。

こんにちは!ローカルで推論を行うために特化したワークステーションを作り終えたところで、セットアップとモデルのおすすめについてぜひご意見を伺いたいと思いました。

•GPU: AMD Radeon AI PRO R9700(32GB GDDR6 VRAM)

•CPU: AMD Ryzen 7 9700X

•RAM: 64GB DDR5

•OS: Fedora Workstation

•ソフトウェア: LM Studio(Vulkanバックエンド)、LLAMAをテストしたい

•パフォーマンス: 現在、単純なプロンプトで安定して約120 tok/sです。(qwen3.6-35b-a3b)

快適に動かせるとおすすめする最大のモデルのアーキテクチャはどれですか? Q4_K_M の量子化に注力すべきでしょうか?

投稿者 /u/jsorres
[リンク] [コメント]