AI Navigate

長文コンテキストをLLMが読んでくれない…を減らす — “Lost in the Middle”論文から学ぶプロンプトと分割設計

Zenn / 3/19/2026

💬 OpinionTools & Practical UsageModels & Research

Key Points

  • Lost in the Middle 論文を出発点に、長文コンテキストのリテンション向上を目指すプロンプトと分割設計を解説している。
  • プロンプト設計の具体例と、長文を分割して効率的に読み取らせる実践手順を紹介する。
  • 評価指標や実験要点を整理し、どの設計がどのケースで有効かを示している。
  • 実務適用のヒントとしてデータ準備、モデル選択、コスト管理、他タスクへの波及を議論する。
はじめに ルミナイR&Dチームの栗原です。 「せっかく長いコンテキストを全部突っ込んだのに、モデルが肝心なところを読んでくれていない気がする……」 RAG や長文プロンプトを触っていると、こんな違和感を覚える場面が出てきます。 ちゃんと書いてあるのに、真ん中あたりの情報だけ無視されたような回答が返ってくる 重要な注意書きを末尾に書いたら機能し始めた 長文をそのまま貼ったら精度がむしろ落ちた こうした現象を、体系的に調べたのが Nelson F. Liu らの “Lost in the Middle: How Language Models Use Long Context...

Continue reading this article on the original site.

Read original →