露出から内在化へ:インコンテキスト臨床推論のためのデュアルストリーム・キャリブレーション

arXiv cs.AI / 2026/4/10

💬 オピニオンSignals & Early TrendsIdeas & Deep AnalysisModels & Research

要点

  • 本論文は、既存のインコンテキスト学習やRAGアプローチはしばしばモデルに臨床知識を「露出」させるものの、推論時に症例ごとに内部表現を調整する真の「文脈的内在化(contextual internalization)」には到達していないと主張する。
  • 推論時トレーニングの枠組みであるDual-Stream Calibration(DSC)を提案する。DSCは、2つの協調するキャリブレーション・ストリームから成り、(1) 重要なエビデンスに関するエントロピーを最小化して生成を安定化するセマンティック・ストリーム、(2) 反復的なメタラーニングによって潜在的な推論依存関係を学習するストラクチャー・ストリーム、の2系統である。
  • DSCは推論時に専門化されたサポートセットで学習し、外部の臨床エビデンスをモデルの内部ロジックにより適切に整合させることで、受動的な注意ベースの照合にとどまらず、潜在推論空間を能動的に洗練(リファイン)することを目指す。
  • 13の臨床データセットでの実験により、DSCが3つのタスクパラダイムにおいて、学習依存型モデルおよび他の推論時学習手法を含む複数のベースラインを上回ることが示される。
  • 総じて本研究は、LLMベースの臨床推論の頑健性と整合性を、現実世界の多様な記録に対して改善することを目的とした、推論に焦点を当てたキャリブレーション手法を提示する。

概要: 文脈に基づく臨床的推論では、複雑で異種混合の臨床記録に根ざした堅牢な推論が求められます。最先端のファインチューニング、インコンテキスト学習(ICL)、および検索拡張生成(RAG)は知識へのアクセスを可能にしますが、多くの場合、本当の意味での文脈的な内在化には至りません。具体的には、推論時に個々の症例がもつ微妙なニュアンスに応じて、モデルの内部表現を動的に調整するようなことができていないのです。これに対処するため、我々は推論時トレーニングの枠組みであるDual-Stream Calibration(DSC)を提案します。DSCは、表面的な知識露出を超えて、推論中に深い内在化を達成することを目的としています。DSCは、2つのキャリブレーション・ストリームを相乗的に整合させることで入力の内在化を促進します。受動的な文脈露出とは異なり、セマンティック・キャリブレーション・ストリームは、主要なエビデンスへの熟慮的な再考を強制し、生成軌道を安定化するためにエントロピーを最小化することでセマンティックなアンカーを内在化します。同時に、ストラクチャー・キャリブレーション・ストリームは、反復的なメタラーニングの目的によって潜在的な推論依存関係を取り込みます。推論時に特化したサポートセットで訓練することで、このストリームは外部エビデンスと内部ロジックの間のギャップを埋め、断片化したデータを首尾一貫した応答へと統合します。我々の手法は、推論パラダイムを受動的な注意に基づく照合から、潜在的な推論空間の能動的な洗練へと転換します。13の臨床データセットで検証したところ、DSCは3つの異なるタスク・パラダイムすべてにおいて、学習依存型モデルから推論時学習枠組みまでの範囲にある最先端のベースラインを一貫して上回り、その優位性を示しました。