NVIDIAは昨日のGTCでNemoClawを発表しました — OpenShell (k3s + Landlock + seccomp) を基盤とするAIエージェント向けの企業向けサンドボックスです。デフォルトではクラウドAPI接続を想定しており、ローカルのネットワークを大幅に制限します。
WSL2 + RTX 5090で100%のローカル推論を実現するために、サンドボックスを抜けて自分のvLLMインスタンスに到達しました。
- ホストiptables: DockerブリッジからvLLMへのトラフィックを許可(ポート8000)
- Pod TCPリレー: PodのメインネームスペースにあるカスタムPythonリレーが、サンドボックスのvethを Dockerブリッジへ橋渡し
- サンドボックスのiptables挿入:
nsenterを使用してサンドボックスの OUTPUT チェーンに ACCEPT ルールを挿入し、デフォルトの REJECT を回避
ツール呼び出しの翻訳: Nemotron 9Bはツール呼び出しを <TOOLCALL>[...]</TOOLCALL> テキストとして出力します。vLLM からのストリーミング SSE 応答を傍受し、バッファしてタグを解析し、それらをリアルタイムで OpenAI 互換の tool_calls に書き換えるカスタムゲートウェイを構築しました。これによりサンドボックス内の opencode は Nemotron を完全な自律的エージェントとして使用できるようになります。
すべてがローカルで実行され、データはマシンを離れません。これは不安定です(WSL2の再起動で iptables の改変は消えてしまいます)が、9Bモデルがロックダウンされた企業コンテナ内で端末コマンドを実行するのを見るのは満足です。
片付けが終わり次第GitHubリポジトリを公開します。誰か他にも NemoClaw をローカルで実行してみましたか?
[リンク] [コメント]




