ローカル環境で全長の小説を生成するAIシステムを構築しています

Reddit r/LocalLLaMA / 2026/3/13

💬 オピニオンDeveloper Stack & InfrastructureIdeas & Deep AnalysisTools & Practical Usage

要点

  • 単一のプロンプトに頼る代わりに、世界観/設定、キャラクター設計、物語の要約、章の計画、場面の計画、場面の作成、批評、書き直し、継続性メモリといったマルチステージのパイプラインを用いて長編小説を生成するローカルAIシステムの構築について説明しています。
  • 目的は、作家の部屋のように物語を構成し、キャラクターの一貫性、ペース配分、全体的な物語構造を改善することです。
  • 現在の設定では、ローカルでホストされているモデルを使用しており、書きには qwen3.5:9b、批評には qwen3.5:27b、ランタイムとして Ollama を使用しており、批評家はキャラクターの一貫性、ペースの問題、繰り返される対話、プロットのずれなどを評価します。
  • 著者は、章ごとに感情/緊張の曲線を導入して、緊張の上昇と下降を測定可能にする実験を行っており、「緊張」「対立」「開示」「転換」「解放」という構造を取り入れています。
  • 将来の方向性には、継続的なキャラクター記憶、幕ごとの物語アーク、そして文体を改善するための小規模な LoRA の訓練が含まれ、著者はコミュニティからのフィードバックを求めています。

みなさん、こんにちは、

ローカルの書籍生成パイプラインを構築する実験をしてきました。AI が生成する小説に共通する、しばしば繰り返しを感じさせる、登場人物が把握できず、真の物語構造を欠くという問題を解決しようとしています。

「本を書け」とだけモデルに促す代わりに、システムはプロセスを複数の段階に分割します。

現在のパイプラインはおおよそ次のとおりです:

入力

→ 世界観 / 設定生成

→ キャラクター設計

→ 物語の要約

→ 章の計画

→ 場面の計画

→ 場面の作成

→ 批評家

→ 書き直し

→ 継続性メモリ

各ステップは、次のステップが消費する構造化されたアウトプットを生成します。

目的は、作家の部屋が物語を構成する方法を模倣することで、モデルにすべてを即興させるのではなく、物語の構造を作ることです。

現在のスタック:

ライターモデル

• qwen3.5:9b 

批評家 / 編集者

• qwen3.5:27b 

ランタイム

• Ollama 

批評の段階では、以下のような点をチェックします:

• キャラクターの一貫性

• ペースの問題

• 繰り返しの対話

• プロットのずれ

その後、書き手へ書き直しの指示を返します。

現在私が試していることの1つは、章ごとに感情/緊張の曲線を追加して、物語が平坦になるのではなく、測定可能な上昇と下降を持つようにすることです。

章ごとの例となる構造:

緊張

対立

開示

転換

解放

これまでのところ、単一のプロンプト生成と比較して出力はかなり改善されています。

このようなマルチステージの物語パイプラインを他にも試した人がいるか、または長編生成を改善するアイデアがあるか、私は興味があります。

次に検討している点:

• 継続的なキャラクター記憶

• 物語アークの追跡(第1幕 / 第2幕 / 第3幕)

• 文体をより良くするための小規模な LoRA の小説データへの訓練

ご意見・提案があれば教えてください。

投稿者: /u/Worldly_Code_4146
[リンク] [コメント]