重要なものに重みを付ける:トークンの重み付けによる医療レポート生成のサンプル効率向上

arXiv cs.LG / 2026/4/24

💬 オピニオンIdeas & Deep AnalysisModels & Research

要点

  • 本研究は、医療レポート生成のためのビジョン言語モデル(VLM)の学習が高品質な注釈データ不足で阻まれがちな点に対し、サンプル効率を高めるための重み付き損失を提案しています。
  • 通常の交差エントロピーのように全トークンの予測誤りを同等に扱うのではなく、重み付き損失では意味的かつ臨床的に重要なトークンを強調します。
  • 眼科領域のレポート生成実験では、このトークン再重み付けにより最大10分の1の学習データで同等のレポート品質を達成できることが示されています。
  • この結果は、単純な学習目的の変更によってデータ規模を問わず効率が改善できる可能性を示唆しています。

Abstract

医用レポート生成のための視覚言語モデル(VLM)の訓練は、高品質な注釈付きデータの不足によってしばしば妨げられます。本研究では、データ効率を改善するために重み付き損失関数の利用を評価します。すべてのトークン予測エラーを同等に扱う標準的な交差エントロピー損失と比べて、再重み付けされた損失は、臨床的に重要性の大きい、意味的に顕著なトークンへと焦点を移します。眼科領域のレポート生成に関する実験では、この単純な方法が複数のデータ規模にわたって効率を向上させ、最大で学習データを10分の1に減らしても同等のレポート品質を達成できることを示します。