Qwen3.5 35B EXL3 量子化モデルを text-generation-webui で使用する?

Reddit r/LocalLLaMA / 2026/3/15

💬 オピニオンTools & Practical UsageModels & Research

要点

  • Redditの投稿によれば、text-generation-webuiでQwen3.5 35B EXL3量子化モデルを読み込もうとすると、読み込みでフリーズして起動しません。
  • turboderp の exl3 量子化、git版、pip版、exllamav3 の公開ファイルのいずれも試しましたが、読み込めませんでした。
  • turboderp の Qwen3.5-35B-A3B-exl3 (4.00bpw) の HuggingFace リポジトリへのリンクを共有し、回避策があるかどうかを尋ねています。
  • 投稿は、大規模言語モデルをウェブUIツールと統合する際の継続的なコミュニティのトラブルシューティングを強調しています。

私はモデルを読み込もうとしていましたが、読み込みで止まり、起動しないようです。 turboderp の exl3 量子化を試しました https://huggingface.co/turboderp/Qwen3.5-35B-A3B-exl3/tree/4.00bpw また、exllamav3 の git 版、pip 版、そして GitHub に公開されているファイルも試しましたが、読み込めません。

誰か解決策を見つけましたか。

投稿者 /u/2muchnet42day
[リンク] [コメント]