DGX SparkのローカルLLMでClaude Codeを動かしてみた
Zenn / 3/19/2026
💬 OpinionDeveloper Stack & InfrastructureTools & Practical Usage
Key Points
- DGX Spark上のローカルLLMでClaude Codeを動かす実験を実施した。
- DGX SparkとClaude Codeの組み合わせに必要な前提条件とセットアップの要点を整理した。
- ローカル推論のパフォーマンス、安定性、ライセンス・セキュリティの制約と現状の課題を報告した。
- 企業のオンプレAI運用や開発ワークフローに与える影響と、今後の活用シナリオを示した。
DGX Sparkが手元にあるなら、ローカルLLMでClaude Codeを動かせないだろうか?
そう思って試してみたら、意外とちゃんと動いた。ファイルの読み書き、コマンド実行、コード探索といった基本的なコーディング作業が、Anthropic APIなしでローカル完結でできるようになり、Webアプリを約1時間で自律的に構築するところまで到達した。
この記事では、そのために作った「Claude Local Proxy」の仕組みと、小型モデルをClaude Codeで実用するために必要だった工夫をまとめておく。
ソースコードはGitHubで公開している。
https://github.com...
Continue reading this article on the original site.
Read original →Related Articles

Astral to Join OpenAI
Dev.to

I Built a MITM Proxy to See What Claude Code Actually Sends to Anthropic
Dev.to

Your AI coding agent is installing vulnerable packages. I built the fix.
Dev.to

ChatGPT Prompt Engineering for Freelancers: Unlocking Efficient Client Communication
Dev.to

PearlOS. We gave swarm intelligence a local desktop environment and code control to self-evolve. Has been pretty incredible to see so far. Open source and free if you want your own.
Reddit r/LocalLLaMA