| The device is work and able build llamacpp and run Qwen 3.5 0.8 4 bit on average speed 3-4 token/sec. [link] [comments] |
Llamacpp on chromebook 4 gb ram
Reddit r/LocalLLaMA / 4/13/2026
💬 OpinionSignals & Early TrendsTools & Practical Usage
Key Points
- Reddit投稿によると、4GB RAM搭載のChromebook上でllama.cppをビルドし、動作させることができたと報告されています。
- Qwen 3.5(0.8B、4bit量子化)を使用して平均3〜4トークン/秒の速度で推論できたとされています。
- デバイス制約が厳しい環境でも、ローカルLLMの実行が現実的になりつつあることを示す事例です。



