24GBのVRAMと64GBのRAM(必要なら)に収まる、少なくとも20〜40トークン/秒で動作できるモデルのおすすめを探しています。
入力テキストまたは画像を受け取り、提示されたタクソノミー(分類体系)リストに基づいて内容を分類し、入力を要約するか、長所/短所を説明して(おそらく従うためのルールをプロンプトに追加でセットする必要があります)、「構造化データ」として返したいです。ありがとうございます。
[link] [comments]
Reddit r/LocalLLaMA / 2026/3/23
24GBのVRAMと64GBのRAM(必要なら)に収まる、少なくとも20〜40トークン/秒で動作できるモデルのおすすめを探しています。
入力テキストまたは画像を受け取り、提示されたタクソノミー(分類体系)リストに基づいて内容を分類し、入力を要約するか、長所/短所を説明して(おそらく従うためのルールをプロンプトに追加でセットする必要があります)、「構造化データ」として返したいです。ありがとうございます。