自分のマシンで動く最強ローカルLLMを一発で教えてくれるCLIツールを作った
Zenn / 2026/3/12
💬 オピニオンTools & Practical Usage
要点
- 自分のマシン上で動作するローカルLLMを一発で特定・推薦するCLIツールを作成した。
- オンデバイスでの推論を前提に、クラウド依存を減らすローカルモデルの比較・選択を容易にする点が特徴だ。
- 対応モデルやセットアップ手順、必要なハードウェア要件、パフォーマンスの目安など実践的な使い方を解説している。
- ローカルAIの普及が開発現場にもたらす影響として、セキュリティ・プライバシーの向上と開発サイクルの短縮が挙げられる。
ローカルLLMがどんどん身近になってきた。Ollamaを入れたり、HuggingFaceからGGUFを落として llama.cppで動かしたり。でも、HuggingFace には何千という量子化モデルがあって、自分のGPUで何が現実的に動くのかわからない…という人、多いんじゃないだろうか。
「VRAM何GB必要?」「Q4_K_M と Q5_K_M どっちがいい?」—— そんな計算をいちいちするのって面倒だ。そこで作ったのが whichllm。
自分のマシンに合う最良のモデルをランキング表示してくれるCLIツールです
https://github.com/Andyyyy64/whichl...
この記事の続きは原文サイトでお読みいただけます。
原文を読む →関連記事
「Google AI Studio」がFirebaseのバックエンドとAntigravityのコーディングエージェントを搭載、プロンプトだけで高度なフルスタックアプリケーションを生成可能に
Publickey
AIエージェントがコマンドラインでブラウザを自動操作できる「Browser Use CLI 2.0」リリース。Chrome DevToolsへの接続などで操作速度が2倍に
Publickey
仕様駆動開発における自己改良エージェント
Dev.to
2026年版:AIでLinkedInプロフィールを最適化して採用担当者に見つけてもらう方法
Dev.to
Agentforce Builder: SalesforceでAIエージェントを構築する方法
Dev.to