要旨: 大規模言語モデル(LLMs)の広範な利用は、重要な疑問を提起します。LLMによってテキストが繰り返し処理されるとき、テキストはどのように進化するのでしょうか。本稿では、この反復推論プロセスをマルコフ生成連鎖として定義します。各ステップは特定のプロンプトテンプレートと前の出力を入力として取り込み、過去のメモリを含みません。反復的な言い換えと往復翻訳の実験では、出力は小さな再発集合に収束する場合もあれば、有限の期間にわたって新規の文を生成し続ける場合もあります。文レベルのマルコフ連鎖モデリングとシミュレーションデータの分析を通じて、反復プロセスは温度パラメータや初期入力文などの要因によって文の多様性が増加することもあれば減少することもあると示しています。これらの結果は、反復LLM推論のダイナミクスと、それがマルチエージェントLLMシステムに与える影響について貴重な洞察を提供します。
大規模言語モデルにおけるマルコフ生成連鎖
arXiv cs.AI / 2026/3/13
💬 オピニオンIdeas & Deep AnalysisModels & Research
要点
- 本論文では、LLMによる反復推論をマルコフ生成連鎖として定義します。各ステップは固定のプロンプトテンプレートと前の出力を入力として使用し、過去のメモリを含みません。
- 反復的な言い換えと往復翻訳の実験を通じて、出力は小さな再発集合に収束する場合もあれば、有限の期間にわたって新規の文を生成し続けます。
- 文レベルのマルコフ連鎖モデリングとシミュレーションデータの分析から、温度パラメータや初期入力文といった要因により多様性が増加することもあれば減少することもあります。
- これらの結果は、反復LLM推論のダイナミクスと、それがマルチエージェントLLMシステムに与える影響について貴重な洞察を提供します。




