私は以前、クラウドのAIは明らかな選択だと思っていました。便利で、常に最新で、インフラは誰か別の人が面倒を見てくれる。私はChatGPT Plusに月額を払い、Claude Proを使い、さらにエディタ上ではGitHub Copilotを動かしていました。これで月あたり60ドル以上です。しかも、プライバシー面でのコストはまだ数に入れていませんでした。
その後、会社に法務から「データインシデント」のリマインドが届きました。顧客データをサードパーティのAIツールに貼り付けないでください。そのメモを読んで、過去1年、私がこれらのクラウドサービスに何を与えてきたのかを、ようやく本気で考えるようになりました。
サブスクリプション疲れは本物
数字の話をしましょう。2026年の平均的な開発者、またはナレッジワーカーは、次を抱えています:
- ChatGPT Plus: $20/月
- Claude Pro: $20/月
- GitHub Copilot: $10/月
- Midjourney もしくは同種: $10-30/月
これはAIツール合計で月60〜80ドル、年間720〜960ドルです。さらに、6か月ごとに「必須」とされる新しいサービスを追加する必要が出てきます。
私はクラウドAIが悪いと言いたいわけではありません。どれも優れたツールです。ですが、積み重なるコストと、プライバシーの現実をあわせて考えると、だんだん気になり始めました。
実際に何がクラウドへ行くのか
日々の作業でクラウドAIアシスタントを使う場合、あなたが共有しているものを考えてみてください:
- あなたのプロンプトや会話(多くの場合、学習に使われる可能性があります)
- 分析のために貼り付けるドキュメントの内容
- それにレビューしてほしいコード
- 自然に混ざってしまうビジネス上の文脈、名前、詳細
ほとんどのサービスにはオプトアウト手段がありますが、設定の奥に埋もれていて、時にはリセットされることもあります。そして仮にデータが学習に使われないとしても、それでもなお、あなたのデータは他人のサーバーに送られて処理されます。
個人のプロジェクトならそれで問題ありません。仕事に関わるもの、顧客に関わるもの、あるいは何かしらセンシティブなものが絡む場合は、考える価値があります。
専用ボックス方式
数か月前、私はAIをローカルで動かすことを調べ始めました。自分のノートPCで試したこともありますが、性能はいまひとつでした。推論が遅い、ファンがうるさい、バッテリーが減る。現実的なワークフローになりません。
そこで出会ったのが、OpenClaw HardwareのClawBoxです。NVIDIA Jetson Orin Nano 8GBをベースにした、事前設定済みのAI用ハードウェアデバイスです。
私が注目した仕様:
- 67 TOPS(Tera Operations Per Second)——CPUでかき集めるのではなく、現実のAIアクセラレーション
- 15Wの消費電力——24/7で稼働して、電気代は月約$1.50程度
- 512GB NVMe SSD——複数のモデルを入れておくのに十分な容量
- €549の一回払い——サブスクリプションなし
以前のクラウドAIの出費ペースなら、9か月未満で元が取れます。
「事前設定済み」が実際に意味すること
私を決めさせたのは、ハードウェアだけではありません。事前にインストール済みのOpenClawソフトウェアでした。
OpenClawはローカルで動くAIアシスタントのプラットフォームで、次に接続します:
- Telegram——どこからでもAIアシスタントとチャットできます
- WhatsApp——同じAIで、別のアプリ
- Discord——チームに最適
- ブラウザ自動化——実際にあなたの代わりにWebを閲覧できます
セットアップは本当に約5分でした。電源を入れて、QRコードを読み取るだけで完了。ボックスは24/7稼働し、電球より少ない消費電力で、ノートPCがオフのときでもリクエストを処理してくれます。
今週の実際の使用例
私が実際にそれでやっていることはこちらです:
ドキュメント分析:契約書、研究論文、クライアントのブリーフを貼り付けます。これらは私のネットワークから外に出ません。モデルがローカルで処理して、要約を返してくれます。
日次のアシスタント:「今日の予定は?」「このメールへの返信文を下書きして。」Telegramのメッセージを扱えるので、通常の連絡先のようにチャットできます。
ブラウザ調査:製品比較を調べるよう頼んだり、Webサイトからデータを引き出して記事を要約させたりします。閲覧はそれがやり、私は結果を受け取るだけです。
コードレビュー:補完という点ではCopilotほど強力ではありませんが、ロジックの確認やコードの説明にはしっかりしていて、しかも完全にプライベートです。
正直なトレードオフ
率直に言います:ローカルAIはGPT-4レベルではありません。8GBのRAMでうまく動くモデルは、最先端のクラウドモデルより小さく、能力も低くなるはずです。
その代わりに得られるもの:
- ✅ ハードウェア購入後はサブスクリプション費用がゼロ
- ✅ 完全なデータプライバシー——あなたの自宅/オフィスのネットワーク外へ何も出ない
- ✅ 常に利用可能——停止や回線不調、レート制限がない
- ✅ カスタマイズ可能——どのモデルを動かし、どう設定するかをあなたが管理できる
- ✅ 利用上限なし
代わりに手放すもの:
- ❌ 最先端モデル(GPT-4o、Claude 3.7)に対する生の能力
- ❌ 最初のセットアップが必要(ただしClawBoxはこれを最小化しています)
- ❌ 最初にかかるハードウェア費用
多くのワークフローでは、ローカルモデルで十分です。うまくいかないケースでは、クラウドAIを使うこともできますが、それは「デフォルト」ではなく「意図した選択」になります。
こんな人に向いている
ローカルAIのハードウェアが特に理にかなうのは、次の場合です:
- AIのサブスクリプションに月$40以上を使っている
- センシティブなデータ(法務、医療、金融、クライアント業務)を扱っている
- 常時稼働の持続的なAIアシスタントが欲しい
- 技術的に好奇心があり、自分でインフラを管理したい
- 私と同じくらいサブスクリプション疲れが嫌いだ
たまにChatGPTに質問する程度のカジュアルユーザーなら、クラウドでもおそらく問題ありません。ですが、AIが毎日の仕事ツールになっているなら、自分でハードウェアを所有することの計算とプライバシー面のメリットはかなり説得力があります。
始めるには
この方向性を試してみたいなら、openclawhardware.devが良い出発点です。すぐに使えるソリューションが用意されています。あるいは、Jetson Orin NanoでDIYして自分でOpenClawをインストールすることもできます(オープンソースです)。
クラウドはなくなりませんし、私も時々使っています。ですが、日々の作業となると? 小さなこの箱が、静かに、プライベートに、そして特権を得るために毎月課金してくることなく、それを処理してくれます。
クラウドAIでサブスクリプション疲れに遭遇しましたか? それとも家でローカル推論を試しましたか? コメントで、あなたの環境で何がうまくいっているかぜひ教えてください。