AI Navigate

自分のマシンで動く最強ローカルLLMを一発で教えてくれるCLIツールを作った

Zenn / 3/12/2026

💬 OpinionTools & Practical Usage

Key Points

  • 自分のマシン上で動作するローカルLLMを一発で特定・推薦するCLIツールを作成した。
  • オンデバイスでの推論を前提に、クラウド依存を減らすローカルモデルの比較・選択を容易にする点が特徴だ。
  • 対応モデルやセットアップ手順、必要なハードウェア要件、パフォーマンスの目安など実践的な使い方を解説している。
  • ローカルAIの普及が開発現場にもたらす影響として、セキュリティ・プライバシーの向上と開発サイクルの短縮が挙げられる。
ローカルLLMがどんどん身近になってきた。Ollamaを入れたり、HuggingFaceからGGUFを落として llama.cppで動かしたり。でも、HuggingFace には何千という量子化モデルがあって、自分のGPUで何が現実的に動くのかわからない…という人、多いんじゃないだろうか。 「VRAM何GB必要?」「Q4_K_M と Q5_K_M どっちがいい?」—— そんな計算をいちいちするのって面倒だ。そこで作ったのが whichllm。  自分のマシンに合う最良のモデルをランキング表示してくれるCLIツールです https://github.com/Andyyyy64/whichl...

Continue reading this article on the original site.

Read original →