はい、タイトルがめちゃくちゃバカっぽく見えるのは分かってます。ええ、検索もしました。Google、Hugging Face、YouTubeを調べて、LM Studioでもいくつか試しましたが、低スペックのVRAM(GTX 1050 4G Vram)なので、そこに4Bか1B以上は収まりません。RAMはだいたい20Gで、ページファイルは15Gです。Qwen 3.6 35Bを試すチャンスはまだありませんでした。私の最大の量子化はQ3_XXSでしたが、これと、その後(Q2、Q1)は大量の情報が落ちるので、モデルがかなりバカになると思いました。だから8B、もしかすると14Bについて考えたのですが、検索で見たもののほとんどは数字とベンチマークだけでした。なので、ここに来て、自分で実際に試して結果を見た人に聞けるんじゃないかと思ったんです。
[リンク] [コメント]




