要約: 大規模言語モデル(LLMs)は高度な医療知識を示し、事実に基づく正確な回答を生成できる。しかし、既存のモデルは個々の患者の文脈を考慮できず、臨床的には正確であっても患者のニーズと十分に一致しない回答を生み出すことが多い。本研究では、DeCode(Decoupling Content and Delivery:内容と提供のデカップリング)を紹介します。トレーニングを要さず、モデルに依存しないフレームワークで、既存のLLMsを臨床現場で文脈化された回答を生成するよう適応させます。OpenAI HealthBenchでDeCodeを評価します。HealthBenchは、LLMの回答の臨床的関連性と妥当性を評価するよう設計された、総合的で挑戦的なベンチマークです。DeCodeはゼロショットの性能を28.4%から49.8%へ向上させ、既存の手法と比較して新しい最先端を達成します。実験結果は、LLMsの臨床的な質問回答能力を向上させるうえでDeCodeの有効性を示唆しています。
DeCode: 医療QAにおけるコンテンツと提供方法の分離
arXiv cs.CL / 2026/3/16
📰 ニュースModels & Research
要点
- DeCode は、トレーニング不要でモデルに依存しないフレームワークで、コンテンツとデリバリーを切り離し、個々の臨床コンテキストに合わせてLLMの回答を調整します。
- OpenAI HealthBench で評価し、ゼロショット性能が28.4%から49.8%へと向上し、既存手法の中で新たな最先端を達成しています。
- 本手法は追加のファインチューニングなしに文脈に適した臨床QAを実現し、医療現場の既存LLMへの導入を促進します。
- 実験結果は、DeCode がLLMの回答の臨床的関連性と妥当性を向上させ、患者中心のケアに実践的な利益をもたらすことを示唆しています。