CPU only!Qwen3.5 / Qwen2.5 / DeepSeek-R1 / Gemma2 をOllamaで徹底比較 — 小型LLM 5モデル実機ベンチマーク
Qiita / 3/21/2026
💬 OpinionTools & Practical UsageModels & Research
Key Points
- Ollamaを使い、CPUのみの実機ベンチマークを実施し、Qwen3.5・Qwen2.5・DeepSeek-R1・Gemma2を含む計5モデルを横並び比較した。
- 推論速度・メモリ要件・出力品質など、実務で使える指標を現実的なCPU環境で評価した。
- ローカルLLMの導入検討に有用なコスト感・セットアップ難易度・依存関係の情報を整理している。
- 実機ベンチマーク結果はGPU不要の現場導入の意思決定に影響を与える可能性がある。
はじめに
「ローカルLLMを使いたいけど、GPUがない」
エンジニアなら誰もがぶつかる壁です。しかし 2026 年現在、1.5〜2B パラメータの小型モデルが CPU のみで実用的な速度 で動くようになりました。
本記事では、以下 5 モデル を GPU なし・CPU 環...
Continue reading this article on the original site.
Read original →



