AI Navigate

[プロジェクト] NemoClaw のサンドボックス分離を回避して、単一の RTX 5090 上で Nemotron 9B + ツール呼び出しを備えた完全にローカルなエージェントを実行した

Reddit r/LocalLLaMA / 2026/3/18

📰 ニュースDeveloper Stack & InfrastructureTools & Practical UsageModels & Research

要点

  • NVIDIA は GTC で OpenShell 上に構築された AI エージェント向けの企業向けサンドボックス NemoClaw を発表しました。デフォルトではクラウド API への接続を前提とし、ローカルネットワーキングを大幅に制限します。
  • 著者は、ホストの iptables ルール、サンドボックスの veth を Docker ブリッジへ接続する Pod TCP Relay、そして sandbox の OUTPUT チェーンを回避する nsenter に挿入された ACCEPT ルールを用いて、WSL2 上の RTX 5090 で 100% ローカル推論を達成しました。
  • vLLM からのストリーミング SSE 応答を傍受し、<TOOLCALL> タグをバッファして解析し、それをリアルタイムに OpenAI 互換の tool_calls に書き換えるカスタムゲートウェイを構築しました。
  • すべてローカルで動作し、データはマシンを離れませんが、WSL2 の再起動で iptables の改変が消えるため不安定です。
  • GitHub リポジトリを作成する予定であり、著者は他の人が NemoClaw をローカルで実行しようとしたことがあるかどうかを尋ねています。

NVIDIAは昨日のGTCでNemoClawを発表しました — OpenShell (k3s + Landlock + seccomp) を基盤とするAIエージェント向けの企業向けサンドボックスです。デフォルトではクラウドAPI接続を想定しており、ローカルのネットワークを大幅に制限します。

WSL2 + RTX 5090で100%のローカル推論を実現するために、サンドボックスを抜けて自分のvLLMインスタンスに到達しました。

  • ホストiptables: DockerブリッジからvLLMへのトラフィックを許可(ポート8000)
  • Pod TCPリレー: PodのメインネームスペースにあるカスタムPythonリレーが、サンドボックスのvethを Dockerブリッジへ橋渡し
  • サンドボックスのiptables挿入: nsenter を使用してサンドボックスの OUTPUT チェーンに ACCEPT ルールを挿入し、デフォルトの REJECT を回避

ツール呼び出しの翻訳: Nemotron 9Bはツール呼び出しを <TOOLCALL>[...]</TOOLCALL> テキストとして出力します。vLLM からのストリーミング SSE 応答を傍受し、バッファしてタグを解析し、それらをリアルタイムで OpenAI 互換の tool_calls に書き換えるカスタムゲートウェイを構築しました。これによりサンドボックス内の opencode は Nemotron を完全な自律的エージェントとして使用できるようになります。

すべてがローカルで実行され、データはマシンを離れません。これは不安定です(WSL2の再起動で iptables の改変は消えてしまいます)が、9Bモデルがロックダウンされた企業コンテナ内で端末コマンドを実行するのを見るのは満足です。

片付けが終わり次第GitHubリポジトリを公開します。誰か他にも NemoClaw をローカルで実行してみましたか?

投稿者: /u/Impressive_Tower_550
[リンク] [コメント]