Ollama 0.19 でローカル LLM が実用レベルになったか検証してみた

Zenn / 4/1/2026

💬 OpinionDeveloper Stack & InfrastructureTools & Practical Usage

Key Points

  • Ollama 0.19 のアップデートを前提に、ローカルLLMが実用レベルに達したかをベンチマーク/検証する内容である。
Ollama 0.19 がリリースされた。Apple の機械学習フレームワーク MLX をバックエンドに採用し、Apple Silicon での推論が高速化されたとのこと。公式ブログでは M5 で Prefill 1810 tok/s、Decode 112 tok/s という数値が出ている。 自分の M5 Max 環境でも体感で速くなったので、普段使っているモデルで 0.18 と 0.19 を計測して比較した。厳密なベンチマークではなく、どこで何が速くなったかを自分の環境で確認するのが目的だ。ただし調べてみると、速くなった理由は「MLX になったから」ではなかった。 先に結論だけ書いてお...

Continue reading this article on the original site.

Read original →