ローカルLLM: Gemma 4 をMac Studioで動かしてみる
Zenn / 2026/4/3
💬 オピニオンDeveloper Stack & InfrastructureSignals & Early TrendsTools & Practical Usage
要点
- Mac Studio上でローカルLLMとしてGemma 4を動かす手順・試行の流れが紹介されています。
- 端末側でモデルを動かす前提で、セットアップや実行時の前提条件(環境・準備物)に触れています。
- ローカル実行により外部APIに依存せず検証できる点が、実務・検証用途に適していることを示しています。
- 実際に動かしてみる形のため、導入検討者が“動作イメージ”を掴みやすい内容になっています。
Gemma 4
Googleがオープンソース(ソフトウェアライセンスがApache 2)でVision/Audioなどもサポートしたマルチモーダルのモデル Gemma 4 をリリースしました。
モバイルやエッジデバイスでも普通に動くし精度が良いなど、そこそこ評判が良さそうでした。
また、Gemini in Android Studioの出来があまり良くなかった(遅いし、間違いが多い)のですが、Android StudioでOllama (ローカルLLM)が使えることが分かり、Geminiの代わりにGemma 4をローカルで試してみようと思いました。ただ、これは次回記事で書く予定でまだ...
この記事の続きは原文サイトでお読みいただけます。
原文を読む →

