未経験者がVRAM 16GBでAIキャラの台本生成を動かすまで(第4回) ── 「きみ」を消したら、品質も消えた話
Zenn / 4/28/2026
💬 OpinionDeveloper Stack & InfrastructureTools & Practical Usage
Key Points
- 未経験者がVRAM 16GB環境でAIキャラクターの台本生成を実現するまでの試行錯誤を、連載の第4回として具体的に振り返っている。
- 「きみ」という呼称など特定の要素をプロンプトから消すと出力品質が落ちたことから、指示の粒度が生成結果に強く影響する点が示されている。
- 制約の厳しいローカル環境(VRAM 16GB)で実用レベルに寄せるため、設定や入力文の調整がボトルネックになっていることがうかがえる。
- 結果として、低資源環境では特に“消す・足す”のような微修正が、品質と再現性に直結する学びにつながっている。
第1〜3回からの続き
第1回〜第3回で、AIキャラの台本生成エンジンを作る過程でぶつかった3つの壁と、その解決策を書きました。
回
テーマ
第1回
壁① VRAM 16GB に 27B モデルが乗らない
第2回
壁② プロンプトの一文字で別人格 / 壁③ 抽象指示は効かない
第3回
解決① Qwen3:14b / 解決② プロンプトに具体例を埋め込む
第3回までで、台本生成の品質は 22秒で90点まで辿り着きました。Phase 1 の中で最も誇らしい成果でした。
ところがある日、生成された台本を眺めていて、ふと違和感を覚えたんです。
「きみ」という二人称...
Continue reading this article on the original site.
Read original →Related Articles

Black Hat USA
AI Business
The Landing: Portable Payload for AI Systems
Reddit r/artificial

I Made a CLI That Yells at Your Code Until It Gets an A
Dev.to

BizNode Pro: run up to 5 independent Telegram bots, each with its own identity, knowledge base, and AI persona
Dev.to
OpenAI Releases Privacy Filter: A 1.5B-Parameter Open-Source PII Redaction Model with 50M Active Parameters
MarkTechPost