AI Navigate

llama.cpp ビルド b8338 が OpenVINO バックエンドと prefill および KV キャッシュ(kvcache)の NPU サポートを追加

Reddit r/LocalLLaMA / 2026/3/15

📰 ニュースTools & Practical UsageModels & Research

要点

  • llama.cpp リリース b8338 は OpenVINO バックエンドと prefill および KV キャッシュ(kvcache)の NPU サポートを追加し、ローカル LLM 推論のハードウェア加速を可能にします。
  • Intel のチームがこの作業に貢献しており、Arc 140T iGPU でのテストを楽しみにしています。
  • 更新は投稿にリンクされている GitHub のリリースページに記載されています。
  • この改善は LLaMA ファミリーモデルのローカル推論をより高速かつ効率的にし、開発者に対してより広いハードウェアサポートを提供する可能性があります。

https://github.com/ggml-org/llama.cpp/releases/tag/b8338

Intel チームによる多くの作業が行われました。Arc 140T iGPU 搭載の 255H でこれを試してみるのを楽しみにしています。

投稿者 /u/stormy1one
[リンク] [コメント]