LLMベースの医療予測における効率的かつ効果的な内部メモリ検索

arXiv cs.CL / 2026/4/10

💬 オピニオンIdeas & Deep AnalysisModels & Research

要点

  • 本論文は、医療分野におけるLLMが、RAG(Retrieval Augmented Generation)を標準的に用いている場合でも、幻覚(ハルシネーション)や、きめ細かな医療コンテキストへの十分なアクセスができないことにより、臨床現場では信頼性が損なわれ得ると主張する。
  • そこで提案されるのが「Keys to Knowledge(K2K)」であり、高コストな外部知識ベースの検索を、モデルのパラメータ内に格納された内部のキーに基づく知識アクセスへ置き換えることで、低レイテンシを実現する。
  • K2Kは、アクティベーションに導かれたプローブ構築と、クロスアテンションによる再ランキング手順によって検索品質を向上させ、関連する臨床情報の選択をより適切に行うことを目指す。
  • 4つの医療アウトカム予測ベンチマークデータセットでの実験により、K2Kが最先端(state-of-the-art)の性能を達成することが示され、提案手法が信頼性と効率の両方を高め得ることが示唆される。
  • 全体として、本研究は、推論時の検索オーバーヘッドを削減しつつ、予測精度を維持または向上させることで、時間制約のある医療予測ワークフローを対象としている。

Abstract

大規模言語モデル(LLM)は医療分野に大きな可能性をもたらす一方で、高リスクな臨床環境における信頼性は、幻覚やきめ細かな医療文脈の欠如によってしばしば損なわれます。Retrieval Augmented Generation(RAG)はこれらの問題を軽減できますが、標準的な教師ありパイプラインでは大規模な外部知識ベースに対する計算コストの高い検索が必要となり、その結果生じる高いレイテンシは、時間に敏感なケアには現実的ではありません。そこで本研究では、外部検索を内部のキー(鍵)ベースの知識アクセスで置き換える新しい枠組み「Keys to Knowledge(K2K)」を提案します。重要な臨床情報をモデルのパラメータ空間に直接符号化することで、K2Kは推論時のオーバーヘッドなしに、内部のキー・バリュー・メモリから高速に検索できるようになります。さらに、アクティベーションに導かれたプローブの構築とクロスアテンションによる再ランキングによって検索品質を高めます。実験結果は、K2Kが4つのベンチマーク医療アウトカム予測データセットすべてにおいて最先端の性能を達成することを示しています。