| 私は、AIコスト最適化ツールであるManifest(オープンソース)を開発しています。考え方はシンプルです。同じ高価なモデルにすべてのリクエストを送るのではなく、各リクエストをそれを処理できる中で最も安いモデルにルーティングします。単純な質問 → 安いモデル。複雑なコーディング課題 → より重いモデル。 ChatGPT Plus、GitHub Copilot、Ollama Cloud Proなどのサブスクリプションにすでにお金を払っている人は多いのに、そのうえでAPIアクセスにも別途支払っている——という状況があるのではないでしょうか。そこで、直接のサブスクリプション対応を追加しました。現時点では、次を接続できます:
既存のプランを接続して、それぞれのモデルすべてにまたがってルーティングするだけです。 このコミュニティの皆さんについて気になっています。AIコストはどのように管理していますか? 1社に絞っていますか、複数使っていますか? ルーティング/最適化のセットアップを試したことはありますか? Manifestは無料で、ローカルで動作し、MITライセンスです。 [リンク] [コメント] |
AI APIに実際どれくらい費やしていますか?そのコストを下げるためにオープンソースのルーターを作りました
Reddit r/artificial / 2026/4/15
💬 オピニオンDeveloper Stack & InfrastructureSignals & Early TrendsTools & Practical Usage
要点
- 開発者が、リクエスト内容に応じて最適(安価)なAIモデルへ振り分けるオープンソースのコスト最適化ツール「Manifest」を公開した。
- すべてのリクエストを同一の高コストモデルに送らず、「単純な質問は安価なモデル」「複雑なコーディング課題は重いモデル」といったルーティングでAPI費用を抑える考え方だ。
- ChatGPT Plus、GitHub Copilot、Ollama Cloud Pro等の“サブスク側”を含めた直接サポートを追加し、既存プランを接続して複数提供元のモデルを横断的にルーティングできる。
- 現在はOpenAI、GitHub Copilot、MiniMax、Z ai、Ollama Cloudといった接続先に対応し、ローカルで動作・MITライセンスで無料提供としている。
- 記事ではコミュニティに対して、利用者がAIコストをどう管理しているか(単一プロバイダ、複数、ルーティング/最適化の試行)への質問も投げている。




