NVIDIA Buildの無料モデルでClaude Codeを使う方法

Dev.to / 2026/4/27

💬 オピニオンDeveloper Stack & InfrastructureSignals & Early TrendsTools & Practical Usage

要点

  • この記事は、Claude CodeのCLI/エディタのワークフローを、AnthropicのAPIではなくNVIDIA Buildホストのモデルへリクエストを転送して利用する方法を説明しています。
  • この仕組みはAnthropicのClaudeモデルを“無料で”提供するものではなく、プロキシ経由でClaude Codeを互換クライアントとして使えるようにするだけだと明確にしています。
  • その実現には、オープンソースのプロジェクト(free-claude-code)がClaude CodeのフロントエンドとNVIDIA Build/NIMのバックエンドをつなぐ役割を担うと述べています。
  • 「モデル」と「インターフェース」を切り分けられる点が、NVIDIA Buildが提供する低コスト/無料のホストモデルを試すうえで有用だと強調しています。

私はClaude Codeがとても気に入っています。

常に完璧なモデルを選ぶからでもなく、すべての回答が魔法みたいだからでもありませんが、ワークフローが良いからです。日々のコーディングに対して、速くて、的を絞っていて、そして本当に役に立つと感じます。もちろん落とし穴は、Claude Codeは通常、あなたがAnthropic自身のAPIに接続されていることを前提にしている点です。

しかし、巧妙な回避策があります。

必要なのがClaude Codeのインターフェースだけ、つまりCLIやエディタ連携、全体的なUXであれば、そのフロントエンドを維持して、バックエンドのモデルを差し替えられます。今のところそれを行う中でも興味深い方法の1つがNVIDIA Buildで、ホストされたモデルのカタログと、開発用の無料のサーバーレスエンドポイントを提供しています。

この2つの世界をつなぐのが、オープンソースのプロジェクトであるfree-claude-codeです。

この記事では、セットアップが実際に何をしているのか、なぜ面白いのか、そして動かす方法を解説します。

この実態が意味すること

まず最も重要な点を先に整理します。

これはAnthropicのClaudeモデルを無料で提供するものではありません。

提供されるのは、裏側で別のモデル提供元にリクエストをルーティングしつつ、Claude Codeをクライアントとして使う方法です。

この場合、その提供元はNVIDIA Build / NVIDIA NIMです。

つまり、セットアップは次のようになります:

Claude Code -> ローカル互換プロキシ -> NVIDIAホストのモデル

この違いは重要です。「無料のClaude」として公開すると、人は誤解されると感じるでしょう。「NVIDIAの無料モデルでClaude Codeを使う」として公開すれば、それは正確で、正直まだかなり魅力的です。

なぜこれが面白いのか

人々がしばしば一緒にまとめがちなものは、本質的に2つあります。

  1. モデルそのもの
  2. モデルとやり取りするために使うインターフェース

Claude Codeはモデルのエコシステムであり、非常に洗練されたコーディング用インターフェースでもあります。ここでの面白い仕掛けは、それらの関心事を分離できることです。

Claude CodeのUXが気に入っていても、より低コストまたは無料でホストされたモデルを試してみたいなら、このセットアップでそれが可能になります。

そしてNVIDIA Buildは、この種の実験にとても適しています。すでに大規模な公開モデルカタログがあり、無料のサーバーレスエンドポイントも用意されているからです。

必要な2つの要素

1. NVIDIA BuildのアカウントとAPIキー

まずここから始めます。

アカウントを作成し、NVIDIAの開発者サインインの手順を進めて、APIキーを生成します。

このキーが、プロキシがNVIDIAのホスト済みモデルエンドポイントへ接続するために使うものです。

2. free-claude-codeのプロキシ

プロジェクトはここにあります。

やっていることは原理的にはシンプルです。

  • ローカルにAnthropic互換のAPIサーフェスを公開する
  • Claude Codeはそのローカルサーバーを参照する
  • プロキシがそれらのリクエストを別の提供元へ変換して転送する

プロジェクトはいくつかの提供元をサポートしていますが、この投稿で重要なのはNVIDIAのルートです。

NVIDIAルートが動く仕組み

プロジェクトの内部では、NVIDIAは第一級の提供元として扱われています。

関連する部分はシンプルです。

  • 提供元名はnvidia_nim
  • APIキーの変数はNVIDIA_NIM_API_KEY
  • リクエストは次へ送られます:
https://integrate.api.nvidia.com/v1  

リポジトリ内のサンプル設定は、現在このモデルをデフォルトにしています:

MODEL="nvidia_nim/z-ai/glm4.7"  

これは重要な点です。プロジェクトが理論上の「NVIDIA互換」だけを一般的に用意しているのではなく、最初からNVIDIAを裏で支える具体的なモデル設定を同梱していることを示しています。

プロキシのインストール

インストール方法は2通りあります。

オプション1: リポジトリをクローンする

git clone https://github.com/Alishahryar1/free-claude-code.git  
cd free-claude-code  
cp .env.example .env  

オプション2: ツールとしてインストールする

uv tool install git+https://github.com/Alishahryar1/free-claude-code.git  
fcc-init  

このfcc-initコマンドは、次の場所に設定ファイルを作成します:

~/.config/free-claude-code/.env  

注意点が1つあります。現在のプロジェクト設定ではPython 3.14+が必要です。

NVIDIA Build向けに設定する

生成された.envファイルを開き、少なくとも次の値を設定してください:

NVIDIA_NIM_API_KEY=your_nvidia_key_here  
MODEL="nvidia_nim/z-ai/glm4.7"  
VOICE_NOTE_ENABLED=false  

いくつか知っておくとよい詳細があります。

  • モデルの値には提供元のプレフィックスを含める必要があります
  • NVIDIAの場合、そのプレフィックスはnvidia_nim/...です
  • リポジトリはOpus、Sonnet、Haiku-styleのリクエストに対して別のバックエンドへマッピングすることもできますが、まずは無視してMODELだけ設定すれば構いません

これで、シンプルな初期セットアップは十分です。

ローカルプロキシを起動する

リポジトリをクローンした場合は、次を実行します:

uv run uvicorn server:app --host 0.0.0.0 --port 8082  

ツールとしてインストールした場合は、通常は次のように実行できます:

free-claude-code  

この時点で、Claude Codeが使うのに十分な見た目のローカルサーバーが手に入ります。

Claude Codeをプロキシへ向ける

ここが引き継ぎの要です。

次のようにしてClaude Codeを起動します:

ANTHROPIC_AUTH_TOKEN="freecc" ANTHROPIC_BASE_URL="http://localhost:8082" claude  

微妙ですが重要なのはベースURLです。

それはプロキシのルートを指すべきです:

http://localhost:8082  

—つまり/v1ではありません。

この小さな点は間違えやすく、もし間違えると、理由がわからないままセットアップ全体が壊れているように感じられます。

そこから得られるもの

すべてが正しく設定されていれば、結果はかなり良いです。

  • あなたは Claude Code のワークフロー をそのまま維持できる
  • その下では NVIDIA がホストするモデル を使用している
  • モデル呼び出しそのものに、Anthropic の API キーは不要
  • すぐに別の有料 API 請求にコミットしなくても、試せる

これは、次のような人にとって良い選択になります。

  • Claude Code の UX が好き
  • 代替モデルでコーディングしてみたい
  • すでに NVIDIA Build のアカウントを持っている
  • より低コスト、または無料の開発環境がほしい

実際に何を期待すべきか

ここでは期待値が重要になります。

Claude Code を Claude 以外のモデルで使うのは、見慣れた車に別のエンジンを載せるようなものです。ダッシュボードは同じように見え、ハンドルも期待どおりの位置にありますが、手触りは変わります。

中には驚くほど良いモデルもあります。

ツールの使い方が苦手なモデルもあります。

速く感じるモデルもあります。

一貫性が目に見えて低いものもあります。

これはプロキシの欠陥というわけではありません。1 つのエコシステム向けに設計されたフロントエンドを、別のエコシステムのモデルで使うという現実にすぎません。

だから、適切な期待は次のようなものではありません。

「これで無料の Claude が手に入った。」

適切な期待は次のようなものです。

「これで、Claude Code のインターフェースが別のモデル提供元に接続された。」

それでも役に立ちます。ただし主張が別になるだけです。

これが重要だと考える理由

インターフェース層とモデル層が、ますます入れ替え可能になる世界へ向かっています。

それは良いニュースです。

つまり、人が本当に使っていて楽しいツールは、いつまでも単一のバックエンドに固定され続ける必要はありません。ワークフローが気に入っているなら、コスト、速度、品質、利用可能性に応じてモデルを切り替えられるべきです。

だからこそ、free-claude-code のようなプロジェクトが面白いのです。

それは、モデル層をより置き換えやすくするからです。

そして NVIDIA Build は、それを特に現実的にします。最初に自分で推論環境を構築しなくても、ホストされたモデルをいろいろ試すハードルを下げてくれるからです。

最後に

私はこれを「魔法の抜け道」だとは売り込まないでしょう。

もっと正直で、そしてより役に立つものとして提案します。

Claude Code をフロントエンドとして使い、NVIDIA Build の無料でホストされたモデル を利用するための実用的な方法です。

すでに Claude Code を気に入っているなら、試す価値があります。

たとえ後で結局 Anthropic のネイティブなスタックに戻るとしても、このセットアップは、未来はおそらく「モデル提供元を固定された運命ではなく、入れ替え可能なインフラとして扱う」ツールに属するのだ、という良いリマインダーになります。

リンク