llama.cppの「SM120ネイティブNVFP4 MMQ(予備版)」がマージされた

Reddit r/LocalLLaMA / 2026/4/29

📰 ニュースDeveloper Stack & InfrastructureSignals & Early TrendsModels & Research

要点

  • llama.cppでは、対応するNVIDIA GPU向けの新しい低レベル最適化パスとして、「preliminary(予備版)」のSM120ネイティブNVFP4 MMQ実装がマージされました。
  • この変更は、llama.cppリポジトリの特定のプルリクエスト(PR #22196)を通じて導入されています。
  • NVFP4に対応したGGUFモデルファイルが、すでにHugging Face上で早期に出回っていることが確認できます(Gemma-4やNemotronなど)。
  • 新機能に対してコミュニティが素早く追随していることが示唆され、ローカル推論の実験が加速する可能性があります。
  • 「preliminary」とされているものの、今回のマージはllama.cppがGPUネイティブな性能機能を拡大していく開発の勢いを示しています。