Qwen3.6 35B-A3Bはllama.cppとVulkanで780M iGPU上でもかなり実用的

Reddit r/LocalLLaMA / 2026/4/24

💬 オピニオンDeveloper Stack & InfrastructureSignals & Early TrendsTools & Practical Usage

要点

  • ユーザーは、llama.cppのVulkanバックエンドを使ってAMD Radeon 780M iGPU上でQwen3.6 MoE(Qwen3.6-35B-A3B)モデルが有効に動作すると報告しています。
  • 780Mでのベンチマークでは、Q6_K量子化のGGUFを使うことで、トークン生成速度とスループットが良好(約250+ pp、約20 tg)だったと示されています。
  • Q6を安定して動かすために、GTTの増加やハングタイムアウトの延長など、Vulkan/ドライバに関連するカーネルパラメータの調整が必要だったとのことです。
  • ユーザーはフルのコンテキスト長でも良い性能が出たと述べ、Qwenチームを称賛しています。

ThinkPad T14 Gen 5(8840U、Radeon 780M、64GB DDR5 5600 MT/s)で、最近のQwen MoEのリリースを試してみました。pp/tg の速度は良好です(vulkanの場合)(250+pp、20 tg):

~/dev/llama.cpp master* ❯ ./build-vulkan/bin/llama-bench 	 -hf AesSedai/Qwen3.6-35B-A3B-GGUF:Q6_K 	 -fa 1 	 -ub 1024 	 -b 1024 	 -p 1024 -n 128 -mmp 0 ggml_vulkan: Found 1 Vulkan devices: ggml_vulkan: 0 = AMD Radeon 780M Graphics (RADV PHOENIX) (radv) (radv) | uma: 1 | fp16: 1 | bf16: 0 | warp size: 64 | shared memory: 65536 | int dot: 1 | matrix cores: KHR_coopmat | model | size | params | backend | ngl | n_batch | n_ubatch | fa | mmap | test | t/s | | ------------------------------ | ---------: | ---------: | ---------- | --: | ------: | -------: | -: | -------: | --: | ---: | --------------: | -------------------: | | qwen35moe 35B.A3B Q8_0 | 27.10 GiB | 34.66 B | Vulkan | 99 | 1024 | 1024 | 1 | 0 | pp1024 | 282.40 ± 6.55 | | qwen35moe 35B.A3B Q8_0 | 27.10 GiB | 34.66 B | Vulkan | 99 | 1024 | 1024 | 1 | 0 | tg128 | 20.74 ± 0.12 | build: ffdd983fb (8916) ~/dev/llama.cpp master* 1m 13s 

Q6を動かすためにカーネルのパラメータを調整する必要がありました(GTTとハングタイムアウトを増やしたところ、うまく動きました)。フルのコンテキストでも問題なく動作します。

かなり感心しました。Qwenチームに称賛を!

submitted by /u/itroot
[リンク] [コメント]