推論と関数呼び出しのために調整された Qwen3.5-9B GGUF、現在 Hugging Face に公開中

Reddit r/LocalLLaMA / 2026/3/18

📰 ニュースTools & Practical UsageModels & Research

要点

  • Qwen3.5-9B GGUFモデルがアップロードされ、llama.cpp/GGUFランタイム向けの推論データおよびFunctionGemmaの関数呼び出しデータでファインチューニングされています。
  • この調整は、構造化された応答、ツールの使用に基づく挙動、および行動志向のプロンプトを強調します。
  • 著者は、ローカルランタイムで実行した場合の、一般的なチャット、推論タスク、構造化出力、および関数呼び出しプロンプトのパフォーマンスについてのフィードバックを求めています。
  • リリースは Hugging Face のリポジトリ slyfox1186/qwen3.5-9b-opus-4.6-functiongemma.gguf へのリンクです。

思考データと FunctionGemma 関連の関数呼び出しデータの混合でファインチューニングしたQwen3.5-9B GGUFをアップロードしたばかりで、それを llama.cpp/GGUF ランタイム用に変換しました。

まだQwenファミリーモデルですが、チューニングにより構造化された応答、ツール使用型の挙動、行動指向のプロンプトへとより傾斜しています。

llama.cpp、LM Studio、Ollamaなどのローカルモデルを実行している場合、そのパフォーマンスがどのようになるかを知りたいです:

  • 一般的なチャット
  • 推論タスク
  • 構造化された出力
  • 関数呼び出しスタイルのプロンプト

Repo link: Huggingface

投稿者: /u/RiverRatt
[リンク] [コメント]