RTX5070Ti + Ollama で動くローカル LLM で一番賢いのはどれだ?!実際に比較検証してみました
Zenn / 4/2/2026
💬 OpinionDeveloper Stack & InfrastructureTools & Practical Usage
Key Points
- RTX 5070 Ti と Ollama の組み合わせでローカルLLMを複数比較し、「一番賢い」の判断基準に基づいて実測検証した内容です。
- 検証では、同じローカル実行環境のもとでモデルごとの応答品質(賢さ)を見比べることで差を整理しています。
- どのモデルが優位かを“使って確かめた”観点で結論づけており、ローカルLLM選定の実務判断に直結します。
- GPU/ローカル推論環境でのLLM活用を前提に、Ollamaでの運用目線の比較になっている点が特徴です。
はじめに
こんにちは、Neo です。
先日、RTX5070Ti 搭載の PC を新調しました。それまで使っていた GTX1080 搭載マシンと比べて VRAM 容量は 8GB から 16GB に倍増。ローカル LLM で動かせるモデルもかなり優秀なモノになりました。
そこで今回は、CanIRun.ai の情報を参考に、Ollama でインストールして RTX5070Ti で動かせる優秀なローカル LLM を使用比較してみました。
既に色々な人が検証記事を出しているとは思いますが、実際にこのスペックの PC を購入・所持してみての実感として、分かりやすいデータを提供できればと思い、今回...
Continue reading this article on the original site.
Read original →Related Articles

Black Hat USA
AI Business

Black Hat Asia
AI Business

Did you know your GIGABYTE laptop has a built-in AI coding assistant? Meet GiMATE Coder 🤖
Dev.to

I Built a Local-First AI Knowledge Base for Developers — Here's What Makes It Different
Dev.to
A bug in Bun may have been the root cause of the Claude Code source code leak.
Reddit r/LocalLLaMA