Qwen 27BはLORE MASTERとして素晴らしい機能を発揮します!

Reddit r/LocalLLaMA / 2026/3/15

💬 オピニオンIdeas & Deep AnalysisTools & Practical UsageModels & Research

要点

  • Qwen 27Bは長文脈分析に卓越しており、80,000トークンの設定文書を成功裏に分析し、密度の高い世界設定の聖典全体にわたる知識を保持します。
  • この用途では、Gemma 3 27B、reka flash、9B といった他のローカルモデル、さらには 35B をも上回り、全体的なハルシネーションの発生が少ないです。
  • 著者は RAG に頼るよりも、全設定をシステムプロンプトに組み込む方を好みます。ただし、異なる設定領域を横断して参照する際には RAG が役立つこともあります。
  • 世界のルールに適合するもっともらしい説明を生み出すことを可能にし、知的な新規性を育みつつも、完璧ではなく時には幻覚を起こすことがあります。

私はLLMsを使って執筆することはありません。そういう興味は以前からなく、自分の声、独自のスタイルを好みます。

とはいえ、私の物語設定の聖典の特定の側面を分析するのを助けてくれる[第二の脳]があればいいのにと、ずっと思ってきました。ローカルモデルはその任務を果たせず、私のオリジナルのアイデアを閉じたモデルに学習させるつもりはありません。

長文脈分析についてQwen 27Bには非常に満足しており、密度の高い私の設定聖典のひとつを試してみようと思いました。そこで概念が密度の高い80,000トークンの文書を入力し、分析を依頼しました。

非常に感心しています。大規模なコーパス全体にわたって知識を保持する能力が非常に高いです。概念、用語、登場人物を理解し、見落としがちな小さな細部さえも見つけ出します。これほど良いとは思っていませんが、ローカルモデルがここまで優れているとはまだ認め難いです。今まで試した他のローカルモデルよりも群を抜いて優れています。頭の中のワイルドなアイデアについて、つい話せる相手ができたのがどれだけ楽しいことか、想像もつきません。

LM-Studio の RAG も実用的には有用だと感じています。参照は 3 つだけですが、物事をうまく把握してくれています。ただ、私の密度の高いロア設定のおかげもあるかもしれません。RAG を使うよりは全設定聖典をシステムプロンプト内に入力する方を好みますが、聖典の別の領域、例えば戦闘システムや文化の追加文脈を与える必要がある場合、RAG は思っていたよりもうまく機能しました。

まだ限界を探っていますが、使い方のひとつとして、実現したい狂ったアイデアがあるとき、それを世界の法と規則の文脈の中で機能させるための論理的説明が必要な場合、Qwen に全コードブックまたは規則体系を渡して機能させるよう依頼します。そして、それが私が全く考えも及ばなかったことを引き出すとき、それは私の世界なんだと確信します!(笑)

完璧ではなく、時には細部を間違えたり幻覚を見たりしますが、それでも比較的堅牢で、他のローカル LLM は一歩も及びません。Gemma 3 27B、reka flash、その他も試しましたが、複雑なロア設定や、あちこちに散らばる微細なディテールにはついていけません。

また、最も強力なのは 27B です。35B も試しましたが、まあ悪くはないですが、27B は別次元です。9B も試しましたが、ひどい幻覚を起こし始めました。他のモデルはそんな量の情報を追い切れません。

実際、このモデルには価値を感じています。私の嗜好は少し風変わりなので、徹底的に試して厳しい期待をしています。でも、私が気づいていない関連を作り出してほしいのです。そうすることで、予期せぬ知的な新規性が生まれることを期待しています。 threads を結びつける、など。

アイデアを出すためには使いません