広告

ローカルLLM: Gemma 4 をMac Studioで動かしてみる

Zenn / 2026/4/3

💬 オピニオンDeveloper Stack & InfrastructureSignals & Early TrendsTools & Practical Usage

要点

  • Mac Studio上でローカルLLMとしてGemma 4を動かす手順・試行の流れが紹介されています。
  • 端末側でモデルを動かす前提で、セットアップや実行時の前提条件(環境・準備物)に触れています。
  • ローカル実行により外部APIに依存せず検証できる点が、実務・検証用途に適していることを示しています。
  • 実際に動かしてみる形のため、導入検討者が“動作イメージ”を掴みやすい内容になっています。
Gemma 4 Googleがオープンソース(ソフトウェアライセンスがApache 2)でVision/Audioなどもサポートしたマルチモーダルのモデル Gemma 4 をリリースしました。 モバイルやエッジデバイスでも普通に動くし精度が良いなど、そこそこ評判が良さそうでした。 また、Gemini in Android Studioの出来があまり良くなかった(遅いし、間違いが多い)のですが、Android StudioでOllama (ローカルLLM)が使えることが分かり、Geminiの代わりにGemma 4をローカルで試してみようと思いました。ただ、これは次回記事で書く予定でまだ...

この記事の続きは原文サイトでお読みいただけます。

原文を読む →

広告