| 他の人も、モデルがこういうループに引っかかってしまいますか? Qwen3.5-9B vs と 3080 Ti(CUDA13) を焼き付けようとしていて、また Xe iGPU には Qwen3.5-35B-A3B を使っていました。 [リンク] [コメント] |
推論がループに引っかかってしまう
Reddit r/LocalLLaMA / 2026/4/11
💬 オピニオン
要点
- ユーザーは、ローカルのLLMが推論中に繰り返しループに陥ってしまうことがあると報告しており、投稿されたスクリーンショットにその様子が記録されています。