copilot の請求モデルが変わったせいで、かなり高額になってしまったので、自分でローカルの LLM を動かす可能性を考え始めています。ですが、この用途にはどのような種類のデバイスが適しているのか、確信が持てません。
128GB のような大容量 RAM を搭載した Mac
RTX5070/5080/5090 を搭載した Windows ですが、メモリ容量の制限が深刻な問題になったりしませんか?
Spark DGX のようなミニのスーパーコンピュータですが、他の選択肢と比べて比較的遅いと聞いたことがあります?
ローカルの LLM を動かすためのデバイスの選び方について、あなたの経験を共有してもらえませんか。アドバイスありがとうございます!
[リンク] [コメント]




