自分のマシンで動く最強ローカルLLMを一発で教えてくれるCLIツールを作った
Zenn / 3/12/2026
💬 OpinionTools & Practical Usage
Key Points
- 自分のマシン上で動作するローカルLLMを一発で特定・推薦するCLIツールを作成した。
- オンデバイスでの推論を前提に、クラウド依存を減らすローカルモデルの比較・選択を容易にする点が特徴だ。
- 対応モデルやセットアップ手順、必要なハードウェア要件、パフォーマンスの目安など実践的な使い方を解説している。
- ローカルAIの普及が開発現場にもたらす影響として、セキュリティ・プライバシーの向上と開発サイクルの短縮が挙げられる。
ローカルLLMがどんどん身近になってきた。Ollamaを入れたり、HuggingFaceからGGUFを落として llama.cppで動かしたり。でも、HuggingFace には何千という量子化モデルがあって、自分のGPUで何が現実的に動くのかわからない…という人、多いんじゃないだろうか。
「VRAM何GB必要?」「Q4_K_M と Q5_K_M どっちがいい?」—— そんな計算をいちいちするのって面倒だ。そこで作ったのが whichllm。
自分のマシンに合う最良のモデルをランキング表示してくれるCLIツールです
https://github.com/Andyyyy64/whichl...
Continue reading this article on the original site.
Read original →Related Articles

Manus、AIエージェントをデスクトップ化 ローカルPC上でファイルやアプリを直接操作可能にのサムネイル画像
Ledge.ai

The programming passion is melting
Dev.to

Best AI Tools for Property Managers in 2026
Dev.to

Building “The Sentinel” – AI Parametric Insurance at Guidewire DEVTrails
Dev.to

Maximize Developer Revenue with Monetzly's Innovative API for AI Conversations
Dev.to