LLM-jp-4をM4 MacBook AirのOllamaで動かしてみた
Zenn / 2026/4/30
💬 オピニオンDeveloper Stack & InfrastructureTools & Practical Usage
要点
- LLM-jp-4をM4 MacBook Air上で、ローカル実行基盤であるOllama経由で動かした実行手順・試行内容が紹介されている。
- Mac環境でのLLMの扱いに焦点があり、ローカル推論の現実的な導入イメージを得られる内容になっている。
- モデルの動作確認を通じて、個人開発や小規模用途での活用可能性を検討できる。
- 実機での試みのため、設定や運用を考える際の判断材料になる。
LLM-jp-4をM4 MacBook AirのOllamaで動かしてみた
はじめに
前回はQwen3をOllamaで動かしました。
今回は日本語特化モデルのLLM-jp-4を同じ環境で動かして、Qwen3と比較します。
同じ質問を投げて、回答の違いを確認していきます。
この記事でやること
GGUFファイルのダウンロード
Modelfileの作成
Ollamaへの登録と起動
Qwen3と同じ質問を投げて比較
基本的なコマンド操作の紹介
LLM-jp-4とは
国立情報学研究所を中心とした国内コンソーシアムが開発する日本語LLMです。
日本語の事前学習データを大量に使って...
この記事の続きは原文サイトでお読みいただけます。
原文を読む →


