LLM-jp-4をM4 MacBook AirのOllamaで動かしてみた

Zenn / 2026/4/30

💬 オピニオンDeveloper Stack & InfrastructureTools & Practical Usage

要点

  • LLM-jp-4をM4 MacBook Air上で、ローカル実行基盤であるOllama経由で動かした実行手順・試行内容が紹介されている。
  • Mac環境でのLLMの扱いに焦点があり、ローカル推論の現実的な導入イメージを得られる内容になっている。
  • モデルの動作確認を通じて、個人開発や小規模用途での活用可能性を検討できる。
  • 実機での試みのため、設定や運用を考える際の判断材料になる。
LLM-jp-4をM4 MacBook AirのOllamaで動かしてみた はじめに 前回はQwen3をOllamaで動かしました。 今回は日本語特化モデルのLLM-jp-4を同じ環境で動かして、Qwen3と比較します。 同じ質問を投げて、回答の違いを確認していきます。 この記事でやること GGUFファイルのダウンロード Modelfileの作成 Ollamaへの登録と起動 Qwen3と同じ質問を投げて比較 基本的なコマンド操作の紹介 LLM-jp-4とは 国立情報学研究所を中心とした国内コンソーシアムが開発する日本語LLMです。 日本語の事前学習データを大量に使って...

この記事の続きは原文サイトでお読みいただけます。

原文を読む →