長い文脈のLLM対話では指示が劣化する一方で、制約は維持されるように見えるのはなぜか?

Reddit r/LocalLLaMA / 2026/3/20

💬 オピニオンIdeas & Deep AnalysisTools & Practical Usage

要点

  • 多くの指示を付与したプロンプトが、ローカルLLMとの長い文脈対話の中で劣化し、制約が弱まり、冗長性が増し、タスクから逸脱することを観察している。
  • 元の指示が依然として文脈ウィンドウ内にある場合でもこの劣化が持続することに注目しており、時間とともに追加の指示を増やすことはそれほど効果的でなくなる可能性を示唆している。
  • 「説明をしない」「追加の文脈を付け加えない」「望まれない追加をしない」といった明示的な禁止は、長時間の対話を通じて出力をより確実に制約する傾向がある。
  • 著者は、指示が新しいトークンと競合するソフトバイアスとして機能する一方で、禁止は出力空間を制約し、ドリフトに対する耐性を高め、文脈が拡大するにつれて注意の移動に関連している可能性があると仮説を提示している。

長い会話でローカル LLM を扱う際の観察

プロンプトを設計する際、多くのアプローチは指示を追加することに焦点を当てます:
– この構造に従う
– X のように振る舞う
– Y を含め、Z を避ける

これは当初は機能しますが、文脈が拡大すると劣化する傾向があります:
– 制約が弱くなる
– 冗長性が増加する
– 応答がタスクを超えて逸脱する

元の指示がまだコンテキストウィンドウ内にある場合でも、これが起こります。

実務上より安定しているように見えるのは、より多くの指示を追加するのではなく、明示的な禁止を導入することです:

– 説明をしない
– 追加の文脈を与えない
– 望まれない追加をしない

これらの制約は、長いインタラクション全体にわたって挙動をより一貫して保つ傾向があります。

仮説:

指示は、時間とともに新しいトークンと競合するソフトなバイアスとして機能します。

禁止は出力空間への制約のように振る舞い、漂移に対してより耐性を持つようになります。

これはアテンション分布と関連があるように感じます:
文脈が拡大すると、以前のトークンは消えることはなく、相対的な影響力が低下します。

LLaMA、Mistral などのローカルモデルを扱う他の人が、特に長い文脈や複数ステップの設定で、同様の挙動を見たことがあるか興味があります。

投稿者 /u/Particular_Low_5564
[リンク] [コメント] 返却形式: {"translated": "翻訳されたHTML"}