ほとんどのAIライティングツールは、1つのことに最適化されています。つまり、文章を素早く生成すること。記事を依頼すれば、記事が返ってきます。速度は目を見張るものです。しかし出力は、すぐに忘れられてしまう。
では、AIが生成するコンテンツにおけるボトルネックが、そもそも「文章を書くこと」ではなかったらどうでしょう。文章の周りにあるすべて――編集上の判断、組織としての記憶、そして、そもそも書かないという規律――がボトルネックだったら?
私は、この考えを検証するためにDEEPCONTEXTというシステムを構築しました。自動化されたバックグラウンド・マガジンです。ニュースの見出しが1本入ると、7ステップのパイプラインを経て、最大5本のロングフォーム記事が生成されて出てきます。246本の記事後に、ここからが面白い学びだと私が考えるポイントをお伝えします。AIライティングについてではありません。AI編集についてです。
最も難しいステップは「記事を書くこと」ではない
パイプラインは7つのステップで構成されています。ステップ5は執筆です。おそらく、最も面白くないものです。
重要なのは、書く前のステップです:
ステップ1c(ルーティング): この見出しに対して新しい記事が必要か、既存のクラスターを拡張すべきか、古くなった内容を更新すべきか、あるいは完全にスキップすべきかをシステムが判断します。SKIPは正当な出力です。「すでに十分にカバーしているからこれ以上は不要だ」と判断して停止することもできます。これは編集上の規律であり、実際のところ、最も重要な能力です。
ステップ3b(デデュープ): 計画された各記事は、埋め込み(embedding)の類似度を使って、全アーカイブと比較されます。しかし高い類似度が、必ずしも重複を意味するわけではありません。「ナトリウムイオン電池」と「中国のEV市場」はスコアが高くても、実際には別のトピックです。システムはベクトル距離だけでなく、論点(angle)や中身(substance)を評価します。これは数学だけではなく、判断を要します。
ペルソナの割り当て: 地政学アナリスト、経済学者、科学解説者、エッセイスト、ファクトチェッカーの5つの異なるライターペルソナ――それぞれが孤立したサブエージェントとして実行されます。執筆中に、互いに文脈を共有しません。このようなアーキテクチャ上の分離は、単一のエージェントが順番に書く場合よりも、より多様な出力を生みます。多様性はプロンプトによって促されるものではなく、構造によるものです。
組織としての記憶がすべてを変える
システムは3つのデータベースを維持します。コンテンツデータベースには公開済みの記事が保存されます。グラフデータベースには埋め込みと類似度スコアが保存されます。そしてファクトデータベースには、公開されるすべての記事とともに増えていく、1,030件の検証済み主張(verified claims)が保存されます。
なぜこれが重要か。記事#1は、その事実の主張を検証するために15回以上のウェブ検索が必要でした。一方、記事#246は3〜4回でした。ファクトベースは積み上がります。経済の事実は3か月で期限切れになります。歴史の事実は期限切れになりません。LLMそのものが改善したからではなく、その周囲の知識インフラが成長するからこそ、システムは検証が上手くなっていきます。
これが、多くのAIライティングツールが見落としている点です。生成のたびにそれぞれを独立したものとして扱ってしまうのです。記憶もありません。文脈もありません。蓄積もありません。DEEPCONTEXTは、すべての記事を増え続ける知識グラフへの貢献として扱います。246本目の記事は、先行する245本の文脈の中で書かれています。
品質の問い
出力は良いのでしょうか?それは、何と比べるかによります。1週間かけて調査し執筆する熟練の人間ジャーナリストと比べれば――いいえ、同程度ではありません。ほとんどのニュースサイトを支配している400ワード程度のクリックベイトの記事と比べれば――それとは比べものにならないほど、はるかに良い。今ほとんど存在していない領域を占めています。つまり、一定の力量があり、事実確認済みで、2,500ワード級の背景ジャーナリズムが、重要なトピックについて8言語で、しかも無料で提供されるという領域です。
5つのペルソナは、測定可能なレベルで文章の違いを生みます。地政学アナリストは歴史的な類似点を引き出します。経済学者は数字を中心に据えます。エッセイストは答えずに問いを投げかけます。建付けとして別の「書き手」だから、読者にも別の作家のように感じられます。
AIコンテンツについてこれが示唆すること
AI生成コンテンツに対する従来のアプローチは「モデルにもっと上手く書かせる」です。より多くのRLHF、より良いプロンプト、より凝ったファインチューニング。DEEPCONTEXTは別の道を示唆しています。つまり、執筆自体は十分な水準に保ち、そのための文章生成の外側――編集上のインフラ――にあらゆる投資を行うべきだということです。
デデュープは繰り返しを防ぎます。ファクトチェックは虚偽を防ぎます。ペルソナの分離は均質化を防ぎます。ルーティングは不要なコンテンツを防ぎます。埋め込み層は組織としての記憶を提供します。
これらは、どれも「書く」能力ではありません。いずれも「編集」の能力です。そして、もしかすると、その方がより重要なのかもしれません。
このプロジェクトは、問いを歓迎します。特に、この種のアプローチにおける品質の上限がどこにあると人々が考えているのか、その見解を聞けることに強い関心があります。https://deepcontext.news/oil-futures-mechanics
[link] [comments]