私は --chat-template-kwargs '{"enable_thinking": false}' およびその後継の --reasoning off を llama-server で試してみましたが、他のモデルではうまく動作する一方、Qwen3.5 27B モデルでは動作しませんでした。
とにかく思考を続ける( タグは挿入されず、しかし思考は で終わる)。
この問題を他の人も経験していますか、解決策を知っていますか?
llama.cpp b8295
[リンク] [コメント]
Reddit r/LocalLLaMA / 2026/3/15
私は --chat-template-kwargs '{"enable_thinking": false}' およびその後継の --reasoning off を llama-server で試してみましたが、他のモデルではうまく動作する一方、Qwen3.5 27B モデルでは動作しませんでした。
とにかく思考を続ける( タグは挿入されず、しかし思考は で終わる)。
この問題を他の人も経験していますか、解決策を知っていますか?
llama.cpp b8295