| ここで「gemma 31B を使っている」と書くと、qwen 27B のほうが良いという回答が返ってきます。そこで pi で gemma 31B Q5 から qwen 27B Q8 に切り替え、だいたいはコードを書いてドキュメントも作れてテストも実行できるのですが、どこかで 100k のコンテキストを超えたあたりから、qwen がループに入ってしまい続けます。何か解決策はありますか? 壊してみるつもりで、やり直して最初からやってみて、とか言ったのですが、それでもずっとループします。 私の現在のコマンドは:
[link] [comments] |
Qwen 3.6 27B が長いコンテキスト後にループする問題
Reddit r/LocalLLaMA / 2026/5/5
💬 オピニオンDeveloper Stack & InfrastructureSignals & Early TrendsTools & Practical Usage
要点
- Redditのユーザーは、Qwen 3.6 27B(高い量子化設定で使用)ではコード作成やテスト実行はできるものの、約10万コンテキストトークンを超えるあたりからループし始めると報告しています。
- ユーザーは「やり直して」などでモデルの挙動を中断・再スタートさせようとしましたが、ループは解消されなかったとのことです。
- 具体的な llama-server の起動コマンド(-c 200000 のような非常に大きいコンテキスト設定や、keep・batch・チェックポイント・ngram推測などのパラメータ)を共有しており、長文推論が原因となっている可能性を示唆しています。
- 本投稿は、Qwen 3.6 27B の長いコンテキストでのループを防ぐための解決策や回避策をコミュニティに求めています。
- 報告では、同様の使い方でループ問題が出にくいとされるGemma 31Bとの挙動の違いが述べられています。




