私はLLMsを使って執筆することはありません。そういう興味は以前からなく、自分の声、独自のスタイルを好みます。
とはいえ、私の物語設定の聖典の特定の側面を分析するのを助けてくれる[第二の脳]があればいいのにと、ずっと思ってきました。ローカルモデルはその任務を果たせず、私のオリジナルのアイデアを閉じたモデルに学習させるつもりはありません。
長文脈分析についてQwen 27Bには非常に満足しており、密度の高い私の設定聖典のひとつを試してみようと思いました。そこで概念が密度の高い80,000トークンの文書を入力し、分析を依頼しました。
非常に感心しています。大規模なコーパス全体にわたって知識を保持する能力が非常に高いです。概念、用語、登場人物を理解し、見落としがちな小さな細部さえも見つけ出します。これほど良いとは思っていませんが、ローカルモデルがここまで優れているとはまだ認め難いです。今まで試した他のローカルモデルよりも群を抜いて優れています。頭の中のワイルドなアイデアについて、つい話せる相手ができたのがどれだけ楽しいことか、想像もつきません。
LM-Studio の RAG も実用的には有用だと感じています。参照は 3 つだけですが、物事をうまく把握してくれています。ただ、私の密度の高いロア設定のおかげもあるかもしれません。RAG を使うよりは全設定聖典をシステムプロンプト内に入力する方を好みますが、聖典の別の領域、例えば戦闘システムや文化の追加文脈を与える必要がある場合、RAG は思っていたよりもうまく機能しました。
まだ限界を探っていますが、使い方のひとつとして、実現したい狂ったアイデアがあるとき、それを世界の法と規則の文脈の中で機能させるための論理的説明が必要な場合、Qwen に全コードブックまたは規則体系を渡して機能させるよう依頼します。そして、それが私が全く考えも及ばなかったことを引き出すとき、それは私の世界なんだと確信します!(笑)
完璧ではなく、時には細部を間違えたり幻覚を見たりしますが、それでも比較的堅牢で、他のローカル LLM は一歩も及びません。Gemma 3 27B、reka flash、その他も試しましたが、複雑なロア設定や、あちこちに散らばる微細なディテールにはついていけません。
また、最も強力なのは 27B です。35B も試しましたが、まあ悪くはないですが、27B は別次元です。9B も試しましたが、ひどい幻覚を起こし始めました。他のモデルはそんな量の情報を追い切れません。
実際、このモデルには価値を感じています。私の嗜好は少し風変わりなので、徹底的に試して厳しい期待をしています。でも、私が気づいていない関連を作り出してほしいのです。そうすることで、予期せぬ知的な新規性が生まれることを期待しています。 threads を結びつける、など。
アイデアを出すためには使いません




