| 投稿者 /u/jacek2023 [リンク] [コメント] |
llama : Nemotron-3-Super へのサポートを追加 danbev による · プルリクエスト #20411 · ggml-org/llama.cpp
Reddit r/LocalLLaMA / 2026/3/12
📰 ニュースDeveloper Stack & InfrastructureTools & Practical Usage
要点
- llama.cpp へのプルリクエスト(PR #20411)は、GGUF 経由で GGML 内の NVIDIA Nemotron-3-Super-120B をサポートします。
- Nemotron-3-Super GGUF モデルアーティファクトは HuggingFace の unsloth/NVIDIA-Nemotron-3-Super-120B-A12B-GGUF にホストされています。
- PR は /u/jacek2023 によって提出され、Reddit の LocalLLaMA ディスカッションにリンクされています。
- この更新は llama.cpp の大規模 120B パラメータモデルとの互換性を拡張し、実験と展開をより容易にします。
- 記事には PR および GGUF モデルページへの直接リンクが提供されています。

