自分のマシンで動く最強ローカルLLMを一発で教えてくれるCLIツールを作った
Zenn / 3/12/2026
💬 OpinionTools & Practical Usage
Key Points
- 自分のマシン上で動作するローカルLLMを一発で特定・推薦するCLIツールを作成した。
- オンデバイスでの推論を前提に、クラウド依存を減らすローカルモデルの比較・選択を容易にする点が特徴だ。
- 対応モデルやセットアップ手順、必要なハードウェア要件、パフォーマンスの目安など実践的な使い方を解説している。
- ローカルAIの普及が開発現場にもたらす影響として、セキュリティ・プライバシーの向上と開発サイクルの短縮が挙げられる。
ローカルLLMがどんどん身近になってきた。Ollamaを入れたり、HuggingFaceからGGUFを落として llama.cppで動かしたり。でも、HuggingFace には何千という量子化モデルがあって、自分のGPUで何が現実的に動くのかわからない…という人、多いんじゃないだろうか。
「VRAM何GB必要?」「Q4_K_M と Q5_K_M どっちがいい?」—— そんな計算をいちいちするのって面倒だ。そこで作ったのが whichllm。
自分のマシンに合う最良のモデルをランキング表示してくれるCLIツールです
https://github.com/Andyyyy64/whichl...
Continue reading this article on the original site.
Read original →Related Articles
How to Create a Month of Content in One Day Using AI (Step-by-Step System)
Dev.to

OpenTelemetry just standardized LLM tracing. Here's what it actually looks like in code.
Dev.to
🌱 How AI is Transforming Planting — and Why It Matters
Dev.to

What is MCP?
Dev.to
I Built a Framework That Makes AI Ask Questions Before Writing Any Code
Dev.to