広告

llama.cppの修正でBonsai 1-bitモデルをCPU(AVX512を含む)およびAMD GPUで実行可能に

Reddit r/LocalLLaMA / 2026/4/3

💬 オピニオンDeveloper Stack & InfrastructureSignals & Early TrendsTools & Practical Usage

要点

  • PrismAIのllama.cppフォークが、CPU実行を妨げていた問題(Bonsai 1-bitモデルを含む)を解決したと報告されている。
  • この更新では、AVX512命令を用いたCPUパフォーマンスのサポート/強化が含まれている。
  • 同じ種類のモデルをROCmを使ってAMD GPU上で動かすための手順も提供している。

PrismAI の llama.cpp のフォークは、CPU で実行しようとすると壊れてしまいます。これは、ROCm 経由で AMD GPU を実行するための手順も含みます。

https://github.com/philtomson/llama.cpp/tree/prism

投稿者 /u/UncleOxidant
[リンク] [コメント]

広告