要旨: 既存のプロンプトベースの微調整手法は、通常、タスク固有のプロンプトをそれぞれ独立に学習するため、複数の臨床向け自然言語処理(NLP)システムを大規模にデプロイする際に、計算・保存のオーバーヘッドが大きくなります。そこで本研究では、多タスクのプロンプト蒸留および分解フレームワークを提案します。これは、21の多様な臨床ソースタスクから単一の共有メタプロンプトを学習し、0.05%未満の学習可能パラメータで未見のターゲットタスクに適応します。5種類の臨床NLPタスク種別(固有表現認識、関係抽出、質問応答、自然言語推論、要約)において、3つのバックボーンモデル(LLaMA 3.1 8B、Meditoron3 8B、gpt-oss 20B)で、10個のホールドアウトしたターゲットデータセットを用いて評価したところ、本フレームワークは、桁違いに少ないパラメータにもかかわらず一貫してLoRAを1.5〜1.7%上回り、さらに単一タスクのプロンプトチューニングを6.1〜6.6%上回ります。gpt-oss 20Bモデルは、特に臨床推論タスクにおいて、全体で最高の性能を達成しました。強力なゼロショットおよび少数ショット性能は、共有プロンプト表現のより良い転移可能性を示しています。
臨床NLPにおけるマルチタスク・プロンプト蒸留と分解によるパラメータ効率の高いトランスファーラーニング手法
arXiv cs.CL / 2026/4/9
💬 オピニオンSignals & Early TrendsIdeas & Deep AnalysisModels & Research
要点
- 本論文では、21の臨床NLPタスクから1つの共有メタプロンプトを学習し、それを新しいタスクへ転移する、マルチタスクのプロンプト蒸留および分解の枠組みを提案する。
- 0.05%未満の学習可能パラメータで、未見の対象タスクに適応し、タスクごとのプロンプトチューニングに比べて計算およびストレージのオーバーヘッドを削減することを目指す。
- NER、関係抽出、QA、NLI、要約の5つの臨床NLPカテゴリ、10のホールドアウトデータセット、3つのバックボーンモデル(LLaMA 3.1 8B、Meditron3 8B、gpt-oss 20B)において、本手法はLoRAを上回り、1.5〜1.7%の性能向上を達成しつつ、はるかに少ないパラメータで実現する。
- 単一タスクのプロンプトチューニングと比較して、本手法は性能を6.1〜6.6%改善する。特にgpt-oss 20Bは全体として最良の結果を示し、臨床推論タスクで顕著である。
- 強力なゼロショットおよび少数ショットの結果は、共有プロンプト表現が多様な臨床タスク間で効果的に転移されることを示唆している。



