小さなコンテキスト入力で論理/空間推論に最適なLLMは?

Reddit r/LocalLLaMA / 2026/4/16

💬 オピニオンTools & Practical UsageModels & Research

要点

  • この投稿は、2Dグリッドベースのプロシージャルなテキストアドベンチャーゲームに対して、論理および空間推論を扱える、小型でローカル実行可能なLLMを求めている。
  • 依頼者は、32GB RAM と 8GB VRAM の構成について述べ、DeepSeek-R1-Distill-Qwen-7B-Q6_K_L.gguf が不調であり、幻覚を起こし、グリッド制約を無視してしまったと指摘している。
  • 想定タスクでは、モデルに 10x10 の盤面状態に加え、制約された行動リスト(最大50の有効な行動)を与える必要があり、空間構造への厳密な遵守が強調されている。
  • ユーザーは、利用可能なメモリの範囲に収まりつつ「空間IQ」を高め、グリッド違反の挙動を減らせるモデルの提案を具体的に探している。

私のシステムには32GBのRAMと8GBのVRAMがあります。DeepSeek-R1-Distill-Qwen-7B-Q6_K_L.ggufを試してみたのですが、私の求めているものに対しては大幅に不十分でした。そこで、ほかの提案を探しています。

私は、世界が厳密な2D座標グリッドであるプロシージャルなテキストアドベンチャー・エンジンに取り組んでいます。モデルはボード状態(10x10)と、有効なアクションの一覧(最大50)を受け取ります。試した7Bモデルは「空間IQ」で失敗し続け、幻覚を起こしてグリッドのレイアウトを無視しようとすることがありました。32GB未満に収めながら、ある程度システムメモリを確保できる分割モデルを探しています。

提出者: /u/clambarlambar
[リンク] [コメント]