要旨: 公的なテキスト記録――いまや人間とAIシステムの双方が学習するもととなる素材――は、その出力自身によってますます形作られるようになっている。生成されたテキストが公的な記録に入り、後続のエージェントがそこから学び、そのサイクルが繰り返される。ここでは、この再帰的プロセスを、可変次数 n-gram エージェントに基づいて、厳密に解ける数学的枠組みとして構築し、さらに公的コーパスに作用する2つの力を切り分ける。1つ目はドリフトである。フィルタされない再利用は、まれな形式を徐々に取り除いていき、無限コーパス極限では、安定分布を正確に特徴づける。2つ目は選択である。出版、ランキング、検証は記録に入るものをふるいにかけ、その結果は何が選択されるかに依存する。出版が単に統計的な現状を反映するだけである場合、コーパスは浅い状態へ収束し、さらなる先読みは何の利益ももたらさない。出版が規範的である場合――品質、正しさ、あるいは新規性に対して報酬を与える場合――は、より深い構造が持続し、その結果として生じる浅い平衡からの発散について、最適な上限を確立する。したがって、この枠組みは、再帰的な出版が公的テキストをどのように圧縮するのか、また選択的なフィルタリングがより豊かな構造をどのように維持するのかを特定し、AI学習用コーパスの設計に対する含意を与える。
LLMテキスト生態系におけるドリフトと選択
arXiv cs.AI / 2026/4/13
💬 オピニオンIdeas & Deep AnalysisModels & Research
要点
- 本論文は、モデルが生成した出力が繰り返し再投入され、その後のエージェントが学習することで、公的なテキスト生態系がどのように進化するかを調べており、再帰的なフィードバックループが生まれることを示します。
- 可変順序のn-gramエージェントを用いた、厳密に解ける数学的枠組みを導入し、2つのメカニズム(ドリフトと選択)を切り分けます。ここでドリフトとは、フィルタなしの再利用によって希少な形式が失われていくこと、選択とは、出版・ランキング・検証によって生じるフィルタリングです。
- 著者らは、無限コーパス極限における安定したコーパス分布を特徴づけ、フィルタなしの再利用が、追加の先読みがほとんど利点をもたらさない浅い状態への収束を促すことを示します。
- 選択が規範的であり(質・正確性・新規性を優先する)、システムがより豊かな構造を維持する場合、本論文は、その結果として生じるダイナミクスが浅い平衡からどれほど逸脱しうるかについて、最適な上界を導出します。
- この枠組みは、再帰的な出版がテキストの多様性を圧縮してしまう条件と、構造を保持する条件を特定することで、AI学習用コーパスの設計に関する指針を提供します。




