分類・要約・説明に対応し、24GB VRAMに収まる最適なローカルモデルは?

Reddit r/LocalLLaMA / 2026/3/23

💬 オピニオンSignals & Early TrendsTools & Practical Usage

要点

  • 投稿者は24GB VRAM(必要なら64GB RAM)環境で動作し、分類・要約・説明を行えるローカルLLM/モデルの候補を探しています。
  • 入力としてテキストや画像を扱い、指定したタクソノミ(分類体系)に基づいて分類結果を構造化データとして返すことを想定しています。
  • 要約や長所/短所の提示などはプロンプト側でルール(指示)を追加することで制御したいと述べています。
  • 目標の推論速度として最低20〜40 tokens/secondを求めています。

24GBのVRAMと64GBのRAM(必要なら)に収まる、少なくとも20〜40トークン/秒で動作できるモデルのおすすめを探しています。

入力テキストまたは画像を受け取り、提示されたタクソノミー(分類体系)リストに基づいて内容を分類し、入力を要約するか、長所/短所を説明して(おそらく従うためのルールをプロンプトに追加でセットする必要があります)、「構造化データ」として返したいです。ありがとうございます。

投稿者: /u/AdaObvlada
[link] [comments]