他の人がアップデートしたかどうかは分かりませんが、LLAMA CPPのMPT版を試してみました。かなりうまく動きます。私は安物のIGPU(AMD、64GBのユニファイドメモリ)を使っています。かなり速いです。9bのQwen 3.5 Q4KMの返信と同じくらいの速さだと言えます。これはなかなかクールです。
[リンク] [コメント]
Reddit r/LocalLLaMA / 2026/5/6
他の人がアップデートしたかどうかは分かりませんが、LLAMA CPPのMPT版を試してみました。かなりうまく動きます。私は安物のIGPU(AMD、64GBのユニファイドメモリ)を使っています。かなり速いです。9bのQwen 3.5 Q4KMの返信と同じくらいの速さだと言えます。これはなかなかクールです。