https://huggingface.co/unsloth/gemma-4-E2B-it-GGUF
https://huggingface.co/unsloth/gemma-4-26B-A4B-it-GGUF
u/danielhanchen による投稿:
私たちは、次の内容に対応してそれらを再度更新しました:
- kv-cache : 異種 iSWA に対する attention rotation の対応 https://github.com/ggml-org/llama.cpp/pull/21513
- CUDA: fusing の前にバッファの重なりを確認 - 重要な修正
<unused24> トークンhttps://github.com/ggml-org/llama.cpp/pull/21566 - vocab : Gemma4 向けに BPE detokenizer へバイトトークン処理を追加 https://github.com/ggml-org/llama.cpp/pull/21488
- convert : Gemma 4 で "add bos" == True を設定 https://github.com/ggml-org/llama.cpp/pull/21500
- common : gemma 4 専用パーサを追加 https://github.com/ggml-org/llama.cpp/pull/21418
- llama-model: Gemma 4 の final_logit_softcapping を読み取る https://github.com/ggml-org/llama.cpp/pull/21390
- llama: Gemma 4 向けのカスタム改行分割を追加 https://github.com/ggml-org/llama.cpp/pull/21406
[リンク] [コメント]



