根拠に基づく医療ガイドラインのエージェント開発のための、対話から質問生成への取り組み

arXiv cs.CL / 2026/3/26

💬 オピニオンSignals & Early TrendsIdeas & Deep AnalysisModels & Research

要点

  • 本論文は、医師と患者の診察場面において、それに焦点を当てた根拠に基づく質問を生成することで、応答ではなく質問生成を行う大規模言語モデルをプライマリ・ケアにおけるアンビエント(環境型)アシスタントとして用いることを提案する。

要旨: 根拠に基づく医療(EBM)は高品質なケアの中核ですが、加速するプライマリ・ケア環境で実装することは依然として困難です。医師は短い診察時間、増加する患者負荷、そしてその場で参照するには現実的でない長大なガイドライン文書に直面しています。このギャップに対処するため、診療中に医師—患者のやり取りの最中に、的を絞ったエビデンスに基づく問いを提示する環境型アシスタントとして、大規模言語モデル(LLM)を用いることの実現可能性を検討します。本研究は、質問の生成に焦点を当て(質問への回答ではなく)、医師の推論を足場化(スキャフォールディング)し、ガイドラインに基づく実践を短い診察の中に統合することを目的としています。私たちは、Gemini 2.5 を基盤モデルとして、ゼロショットのベースラインと、複数段階の推論バリアントの2つのプロンプト戦略を実装しました。評価は、実際の臨床現場のやり取りから匿名化した80件のトランスクリプトによるベンチマークで行い、6名の経験豊富な医師が、構造化されたレビューを90時間超提供しました。その結果、汎用目的のLLMはまだ完全には信頼できないものの、臨床的に意味のある、かつガイドラインに関連する質問を生成できることが示されました。これにより、認知的負荷を大きく軽減し、EBMをケアの提供時点でより実行可能なものにする可能性があることが示唆されます。

根拠に基づく医療ガイドラインのエージェント開発のための、対話から質問生成への取り組み | AI Navigate