LLM-jp-4をM4 MacBook AirのOllamaで動かしてみた
Zenn / 4/30/2026
💬 OpinionDeveloper Stack & InfrastructureTools & Practical Usage
Key Points
- LLM-jp-4をM4 MacBook Air上で、ローカル実行基盤であるOllama経由で動かした実行手順・試行内容が紹介されている。
- Mac環境でのLLMの扱いに焦点があり、ローカル推論の現実的な導入イメージを得られる内容になっている。
- モデルの動作確認を通じて、個人開発や小規模用途での活用可能性を検討できる。
- 実機での試みのため、設定や運用を考える際の判断材料になる。
LLM-jp-4をM4 MacBook AirのOllamaで動かしてみた
はじめに
前回はQwen3をOllamaで動かしました。
今回は日本語特化モデルのLLM-jp-4を同じ環境で動かして、Qwen3と比較します。
同じ質問を投げて、回答の違いを確認していきます。
この記事でやること
GGUFファイルのダウンロード
Modelfileの作成
Ollamaへの登録と起動
Qwen3と同じ質問を投げて比較
基本的なコマンド操作の紹介
LLM-jp-4とは
国立情報学研究所を中心とした国内コンソーシアムが開発する日本語LLMです。
日本語の事前学習データを大量に使って...
Continue reading this article on the original site.
Read original →Related Articles

Black Hat USA
AI Business

The foundational UK sovereign-AI patents are filed. The collaboration door is open.
Dev.to

Building a Shopify app with Claude Code — spec-driven development and pricing design
Dev.to

The AI Habit That Pays Dividends (And Takes Zero Extra Time)
Dev.to

From Chaos to Clarity: AI-Powered Client Portals for Designers
Dev.to