みなさん、こんにちは、
ローカルの書籍生成パイプラインを構築する実験をしてきました。AI が生成する小説に共通する、しばしば繰り返しを感じさせる、登場人物が把握できず、真の物語構造を欠くという問題を解決しようとしています。
「本を書け」とだけモデルに促す代わりに、システムはプロセスを複数の段階に分割します。
現在のパイプラインはおおよそ次のとおりです:
入力
→ 世界観 / 設定生成
→ キャラクター設計
→ 物語の要約
→ 章の計画
→ 場面の計画
→ 場面の作成
→ 批評家
→ 書き直し
→ 継続性メモリ
各ステップは、次のステップが消費する構造化されたアウトプットを生成します。
目的は、作家の部屋が物語を構成する方法を模倣することで、モデルにすべてを即興させるのではなく、物語の構造を作ることです。
現在のスタック:
ライターモデル
• qwen3.5:9b 批評家 / 編集者
• qwen3.5:27b ランタイム
• Ollama 批評の段階では、以下のような点をチェックします:
• キャラクターの一貫性
• ペースの問題
• 繰り返しの対話
• プロットのずれ
その後、書き手へ書き直しの指示を返します。
現在私が試していることの1つは、章ごとに感情/緊張の曲線を追加して、物語が平坦になるのではなく、測定可能な上昇と下降を持つようにすることです。
章ごとの例となる構造:
緊張
対立
開示
転換
解放
これまでのところ、単一のプロンプト生成と比較して出力はかなり改善されています。
このようなマルチステージの物語パイプラインを他にも試した人がいるか、または長編生成を改善するアイデアがあるか、私は興味があります。
次に検討している点:
• 継続的なキャラクター記憶
• 物語アークの追跡(第1幕 / 第2幕 / 第3幕)
• 文体をより良くするための小規模な LoRA の小説データへの訓練
ご意見・提案があれば教えてください。
[リンク] [コメント]

