RTX5070Ti + Ollama で動くローカル LLM で一番賢いのはどれだ?!実際に比較検証してみました
Zenn / 2026/4/2
💬 オピニオンDeveloper Stack & InfrastructureTools & Practical Usage
要点
- RTX 5070 Ti と Ollama の組み合わせでローカルLLMを複数比較し、「一番賢い」の判断基準に基づいて実測検証した内容です。
- 検証では、同じローカル実行環境のもとでモデルごとの応答品質(賢さ)を見比べることで差を整理しています。
- どのモデルが優位かを“使って確かめた”観点で結論づけており、ローカルLLM選定の実務判断に直結します。
- GPU/ローカル推論環境でのLLM活用を前提に、Ollamaでの運用目線の比較になっている点が特徴です。
はじめに
こんにちは、Neo です。
先日、RTX5070Ti 搭載の PC を新調しました。それまで使っていた GTX1080 搭載マシンと比べて VRAM 容量は 8GB から 16GB に倍増。ローカル LLM で動かせるモデルもかなり優秀なモノになりました。
そこで今回は、CanIRun.ai の情報を参考に、Ollama でインストールして RTX5070Ti で動かせる優秀なローカル LLM を使用比較してみました。
既に色々な人が検証記事を出しているとは思いますが、実際にこのスペックの PC を購入・所持してみての実感として、分かりやすいデータを提供できればと思い、今回...
この記事の続きは原文サイトでお読みいただけます。
原文を読む →


