ローカルLLM 6モデルサイズ別比較:gemma3 / qwen3 / gpt-oss をOllamaで実測
Zenn / 4/30/2026
💬 OpinionTools & Practical UsageModels & Research
Key Points
- gemma3 / qwen3 / gpt-oss のローカルLLMを、モデルサイズ別にOllama上で実測し、利用感や性能差を比較しています。
- サイズが変わることで必要なリソースや挙動がどう変化するかを、実測ベースで確認できる内容です。
- 同一実行基盤としてOllamaを用い、モデル間の差を相対的に見やすくしています。
- ローカル環境でどのモデルを選ぶべきかの判断材料を、サイズ別の比較として提供します。
ローカルLLM 6モデルサイズ別比較:gemma3 / qwen3 / gpt-oss をOllamaで実測
Ollamaを使ってローカル環境で動かした3ファミリー・6サイズのLLMを、5つのユースケースカテゴリで定量的にベンチマークしました。「どのモデル・サイズを選ぶか」の判断材料として活用してください。
実験環境・設定
ハードウェア
項目
値
GPU
NVIDIA GeForce RTX 4060(VRAM 8 GB)
CPU
Intel Core i5-13500(13th Gen)
RAM
64 GB
OS
Windows 11 + WSL...
Continue reading this article on the original site.
Read original →💡 Insights using this article
This article is featured in our daily AI news digest — key takeaways and action items at a glance.
Related Articles

Black Hat USA
AI Business
Vector DB and ANN vs PHE conflict, is there a practical workaround? [D]
Reddit r/MachineLearning

Agent Amnesia and the Case of Henry Molaison
Dev.to

Azure Weekly: Microsoft and OpenAI Restructure Partnership as GPT-5.5 Lands in Foundry
Dev.to

Proven Patterns for OpenAI Codex in 2026: Prompts, Validation, and Gateway Governance
Dev.to