広告

RTX5070Ti + Ollama で動くローカル LLM で一番賢いのはどれだ?!実際に比較検証してみました

Zenn / 2026/4/2

💬 オピニオンDeveloper Stack & InfrastructureTools & Practical Usage

要点

  • RTX 5070 Ti と Ollama の組み合わせでローカルLLMを複数比較し、「一番賢い」の判断基準に基づいて実測検証した内容です。
  • 検証では、同じローカル実行環境のもとでモデルごとの応答品質(賢さ)を見比べることで差を整理しています。
  • どのモデルが優位かを“使って確かめた”観点で結論づけており、ローカルLLM選定の実務判断に直結します。
  • GPU/ローカル推論環境でのLLM活用を前提に、Ollamaでの運用目線の比較になっている点が特徴です。
はじめに こんにちは、Neo です。 先日、RTX5070Ti 搭載の PC を新調しました。それまで使っていた GTX1080 搭載マシンと比べて VRAM 容量は 8GB から 16GB に倍増。ローカル LLM で動かせるモデルもかなり優秀なモノになりました。 そこで今回は、CanIRun.ai の情報を参考に、Ollama でインストールして RTX5070Ti で動かせる優秀なローカル LLM を使用比較してみました。 既に色々な人が検証記事を出しているとは思いますが、実際にこのスペックの PC を購入・所持してみての実感として、分かりやすいデータを提供できればと思い、今回...

この記事の続きは原文サイトでお読みいただけます。

原文を読む →

広告