| こんにちは、皆さん。 また戻ってきました。私は同じ論文からWebアプリタスク用に、Qwen 3.6 UD 2 K_XL Unslothモデルをテストしました。モデルの性能はとても良好です。すべてのツール呼び出しを適切に処理でき、さらにノートPCの16GB VRAM環境で llama.cpp を使って大きなコンテキストも管理できました。 詳細はすべて添付しました このモデルは、Qwen 35Bモデルで私が以前作成したのと同じスキルを使ってテストできます [link] [comments] |
Qwen 3.6 35 UD 2 K_XL が実力以上に健闘している:量子化でも侮れない(GPU不足の人はいない)
Reddit r/LocalLLaMA / 2026/4/17
💬 オピニオンSignals & Early TrendsTools & Practical Usage
要点
- Redditの投稿者が、Qwen 3.6 UD 2 K_XL(Qwen 35B)のUnslothモデルを「論文→Webアプリ」タスクで検証した結果、非常に良い性能だと報告しています。
- 58回のツール呼び出しを98.3%の成功率で処理でき、16GB VRAMのノートPC上でllama.cppを使って大きなコンテキストも扱えたと主張しています。
- さらに、提示された論文からアプリを構築する過程で約270万トークンを処理したと述べています。
- 併せて、llama-serverでの実行手順(例:コンテキスト長90,000の設定)や「research-webapp-skill」に関連するリンクも共有されています。



