Turbo3 + gfx906 + 4 mi50 16gb running qwen3.5 122b 🤯

Reddit r/LocalLLaMA / 3/29/2026

💬 OpinionDeveloper Stack & InfrastructureSignals & Early TrendsTools & Practical Usage

Key Points

  • ユーザーがllamacppの新しいフォークで、gfx906対応とTurbo3フォークを統合し、動作することを報告しています。
  • gfx906環境において、4枚のMI50・各16GB構成でQwen3.5 122Bを動かした実例が共有されています。
  • レポートはローカルLLMの推論環境をGPU世代やフォーク統合で拡張できる可能性を示しています。
Turbo3 + gfx906 + 4 mi50 16gb running qwen3.5 122b 🤯

Today I merged gfx906 and Turbo3 forks in a fresh fork of llamacpp and it went well.

submitted by /u/Exact-Cupcake-2603
[link] [comments]