広告

セットアップの助言。新しいRTX 5090、32GB RAM+96GB DDR5 RAM。

Reddit r/LocalLLaMA / 2026/3/29

💬 オピニオンIdeas & Deep AnalysisTools & Practical Usage

要点

  • この投稿は、「Kimi 2.5」をコーディングのワークフローで実行するための推奨ローカルAIハードウェアとモデル構成について尋ねており、Opusのような用途を想定している。ローカルの「CodeX」ツールを置き換えることを目的としている。
  • 利用者は、他のモデルで以前に問題があったことを報告している。具体的には、ツール関連の不具合(例:「Goose を使う tools」)や、より小型のモデルによるプロジェクトフォルダの確認が信頼できない点などが挙げられる。
  • また、デバイス上でComfyUIのプロンプトやワークフローをローカルに処理できることを望んでおり、さらにもう96GBのDDR5 RAMを追加できる可能性も検討している(RAMスロットはまだ2つ空いている)。
  • 64GB DDR5メモリスティックが現地やAmazonで入手しづらい状況も踏まえ、増設を少しずつ行うよりも、RAMスロットの拡張性が高いワークステーションのほうが良いのかどうかについて助言を求めている。
  • 全体として、このスレッドは、予定しているRTX 5090とDDR5構成を前提にした、オンデバイスのLLM+UI/ワークフロー用途に関する実用的なトラブルシューティングと要件の整理の議論である。

いろいろなモデルを試していましたが、私が求めているものとは少し違いました。ローカルでOpusのようなコード作成を行うために、Kimi 2.5を動かせるようにしたいです。具体的には、自分のデバイス上でCodeXを置き換えたいです。他のモデルを動かしたときは、Gooseを使うツールに問題がありました。フォルダ内のプロジェクトを見直すように小さめのモデルに頼んでも、思った通りには動きませんでした。

さらに、デバイス上でcomfyuiのプロンプトやワークフローを処理できるものも欲しいと思っていました。

必要なら追加で96GBのRAMを買えます。空きスロットはまだ2つあります。

ベストなモデル/構成について何かアイデアはありますか? ワークステーションを買って、スロットを増やしつつRAMをもっと買い足していくべきでしょうか? 私の国では64GBのDDR5メモリスティックが見つからないようで、Amazonで探しても選択肢が限られているようです。

submitted by /u/Wa1ker1
[link] [comments]

広告