Qwen3.6-35Bは3.5よりもツール使用や推論ループが苦手?

Reddit r/LocalLLaMA / 2026/4/17

💬 オピニオンSignals & Early TrendsTools & Practical UsageModels & Research

要点

  • ユーザーは、ローカル環境(oMLXおよびLM Studio)でコーディングやエージェント型のタスクをテストしたところ、Qwen3.6-35BがQwen3.5よりも「reasoning(推論)」をより頻繁にループしているように見えると報告している。
  • また、ツール呼び出しが失敗することもあるが、その一部はモデルそのものというよりツール/パース(解釈)関連の問題に起因している可能性があると推測している。
  • モデルは単純なアプリケーションでは概ね許容できる一方で、最小限の文脈であっても、基本的な3Dゲームを進めるといった、より複雑で反復的な作業では苦戦するという。
  • ユーザーによれば、このループ/ツールの問題は複数の量子化形式や設定(8-bit MLX、Q6_K_XL、Q8_XL、BF16を含む)をまたいでも継続しており、その挙動はモデルに内在する可能性があることを示唆している。
  • 投稿は、他の人にも同様の回帰(ツール使用や推論ループ挙動の悪化)が見られるかどうか確認してほしいという呼びかけである。

OpenCodeで、さまざまな量子化(quants)とコーディング課題に対して、新しいモデルを一晩中ずっと動かしていました。oMLXとLM Studioを使用しました。精密なタスク向けの推奨設定(temp 0.6、top-k 20など)と、OpenCodeエージェントを使用しています。現時点での私の所見は、3.5よりも頻繁にモデルが無限の推論ループに入ることがあり、また、ときどきツール呼び出しの失敗も見かけるという点です。後者はパーサのバグの可能性はありますが、前者はモデルそのものです。

基本的なアプリでは問題ありませんが、コンテキストがほぼ空に近い状態でも、単純な3Dゲームのような、より複雑なものに先へ進もうとすると本当に苦戦します。まるで非常に防御的になろうとして、絶えず自分を再確認し続けているかのようです。

他にも同様の観察をしている人はいますか?

編集:8bitのMLX、Q6_K_XL、Q8_XL、BF16を試しましたが、全部この問題がありました。言い忘れていました

submitted by /u/mr_il
[link] [comments]