ローカルでLLMをホスティングするのは初めてです。
私はClaude Sonnetをかなり使っていて、とても成功しています。ローカルのLLMを、速さを必要としないので夜通し自分のハードウェアで動かし、sonnetやopusのようなモデルの品質は必要とする、というワークフローを探ってみたいです。
このような仕様の範囲で、現時点で実現可能でしょうか?ハードウェアを2倍にすれば実現できますか、それともその種の品質は現在はAPI経由でのみ利用可能なのでしょうか?
[link] [comments]
Reddit r/LocalLLaMA / 2026/4/12
ローカルでLLMをホスティングするのは初めてです。
私はClaude Sonnetをかなり使っていて、とても成功しています。ローカルのLLMを、速さを必要としないので夜通し自分のハードウェアで動かし、sonnetやopusのようなモデルの品質は必要とする、というワークフローを探ってみたいです。
このような仕様の範囲で、現時点で実現可能でしょうか?ハードウェアを2倍にすれば実現できますか、それともその種の品質は現在はAPI経由でのみ利用可能なのでしょうか?