Retrieval-Reasoning Large Language Modelベースの合成臨床試験生成

arXiv cs.CL / 2026/3/27

💬 オピニオンIdeas & Deep AnalysisTools & Practical UsageModels & Research

要点

  • 本論文は、LLMを用いたfew-shot promptingにより、成功/失敗の2値アウトカムを持つ合成臨床試験レポートを生成するRetrieval-Reasoningフレームワークを提案する。
  • 生成を関連するClinicalTrials.govデータに基づけるためのリトリーバル(検索)モジュールと、領域に整合した正当化(justification)を作り出す推論モジュールを組み合わせる。
  • ClinicalTrials.govの実臨床試験データに関する実験により、合成試験が実データセットを効果的に補完できることが示される。
  • 著者らは、合成データ、実データ、あるいはそれらの混合物を用いてBioBERT分類器を微調整し、ハイブリッドな微調整が臨床試験のアウトカム予測性能を改善することを見出す。
  • 本研究は、LLMによって生成された合成試験が、臨床研究におけるプライバシーを保護しつつデータ拡張を支援し得ると論じ、あわせてGitHubでコードを公開している。

Abstract

機械学習(ML)は臨床応用に対して大きな可能性を秘めている一方で、プライバシー上の懸念、高コスト、そして臨床試験に関連する長いタイムラインにより、高品質データへのアクセスがしばしば制限されます。大規模言語モデル(LLM)は汎用的な生成タスクにおいて強力な性能を示してきましたが、現実的な臨床試験を合成するためへの応用は十分に調査されていません。本研究では、LLMを用いた少数ショット・プロンピングを活用し、二値の成功/失敗アウトカムで注釈付けされた合成臨床試験レポートを生成する、新しいRetrieval-Reasoning(検索・推論)フレームワークを提案します。提案手法は、生成を関連する試験データに基づけるための検索モジュールと、領域に整合した根拠(justifications)を保証するための推論モジュールを統合します。ClinicalTrials.govデータベースの実臨床試験に対して行った実験では、生成された合成試験が実データセットを効果的に拡張できることが示されました。合成データ、実データ、またはそれらの組み合わせに対してBioBERT分類器を微調整することで、ハイブリッドな微調整は、臨床試験アウトカム予測タスクの性能向上につながることがわかりました。これらの結果は、LLMベースの合成データが、臨床研究におけるプライバシーを保護しつつデータ拡張を行うための強力な手段になり得ることを示唆しています。コードは https://github.com/XuZR3x/Retrieval_Reasoning_Clinical_Trial_Generation で公開されています。
広告