私は framework13 のノートPCで、ローカルのLLMをいろいろ試し続けています。
そのため、メモリ帯域幅と処理能力には制限があるので、40Bパラメータ未満の MoE を量子化したモデルを探ることになります。
意外にも、私にとって gpt-oss-20B はかなりうまくやれました..
[link] [comments]
Reddit r/LocalLLaMA / 2026/4/11
私は framework13 のノートPCで、ローカルのLLMをいろいろ試し続けています。
そのため、メモリ帯域幅と処理能力には制限があるので、40Bパラメータ未満の MoE を量子化したモデルを探ることになります。
意外にも、私にとって gpt-oss-20B はかなりうまくやれました..