ローカルLLM 6モデルサイズ別比較:gemma3 / qwen3 / gpt-oss をOllamaで実測
Zenn / 2026/4/30
💬 オピニオンTools & Practical UsageModels & Research
要点
- gemma3 / qwen3 / gpt-oss のローカルLLMを、モデルサイズ別にOllama上で実測し、利用感や性能差を比較しています。
- サイズが変わることで必要なリソースや挙動がどう変化するかを、実測ベースで確認できる内容です。
- 同一実行基盤としてOllamaを用い、モデル間の差を相対的に見やすくしています。
- ローカル環境でどのモデルを選ぶべきかの判断材料を、サイズ別の比較として提供します。
ローカルLLM 6モデルサイズ別比較:gemma3 / qwen3 / gpt-oss をOllamaで実測
Ollamaを使ってローカル環境で動かした3ファミリー・6サイズのLLMを、5つのユースケースカテゴリで定量的にベンチマークしました。「どのモデル・サイズを選ぶか」の判断材料として活用してください。
実験環境・設定
ハードウェア
項目
値
GPU
NVIDIA GeForce RTX 4060(VRAM 8 GB)
CPU
Intel Core i5-13500(13th Gen)
RAM
64 GB
OS
Windows 11 + WSL...
この記事の続きは原文サイトでお読みいただけます。
原文を読む →


