MT-OSC:多ターン会話で迷子になるLLMのためのパス
arXiv cs.CL / 2026/4/13
💬 オピニオンIdeas & Deep AnalysisModels & Research
要点
- MT-OSCは、会話が多くのターンにまたがることで、指示と文脈が分散されるとLLMの性能が劣化するという一般的な課題に対処します。特に、完全なチャット履歴をプロンプトにそのまま付加する場合に顕著です。
- 提案手法のOne-off Sequential Condensation(ワンオフ逐次凝縮)は、ユーザーの邪魔をせずに本質的な情報だけを保持するため、バックグラウンドのCondenser Agent(少数ショットの推論ベースのCondenserと軽量なDecider)を用います。
- 実験では、10ターンの対話において最大72%のトークン削減が報告されており、コンテキストウィンドウのオーバーフローを緩和し、レイテンシと運用コストの低減にもつながります。
- 13種類の最先端LLMと多ターンのベンチマークにわたって、MT-OSCはマルチターン性能のギャップを一貫して縮め、精度を維持または向上させ、無関係・気を散らすターンに対する頑健性も示します。
- 本研究は、入力サイズが制約される状況下で、品質と効率のバランスを取りながら、より豊かなマルチターン文脈を実現するためのスケーラブルな手法としてMT-OSCを位置付けます。




