パラメータ効率の高い臨床テキスト分類のためのGPTアーキテクチャの選択的ファインチューニング
arXiv cs.CL / 2026/3/17
📰 ニュースModels & Research
要点
- 本研究は、ネットワークの大部分を凍結し、最終のTransformerブロック、最終の層正規化モジュール、および軽量な分類ヘッドのみを更新することで、GPT-2を臨床テキスト分類タスクに適応させる、パラメータ効率の高い選択的ファインチューニングのフレームワークを提案する。
- MIMIC-IV-Noteデータセットの50,000件の放射線科レポートを用いて、モデルパラメータの6%未満を更新するだけで、約91%の分類精度を達成する。
- この手法は計算リソースを削減し、事前学習済みの文脈表現を保持することを目的としており、臨床NLPタスクへのスケーラブルな展開を可能にする。
- 比較実験により、選択的ファインチューニングは、ヘッドのみのトレーニングおよび全モデルのファインチューニングと比較して、予測性能と効率の間で好ましいバランスを提供することが示された。
関連記事

数学には思考の時間が、日常知識には記憶が必要であり、新しいTransformerアーキテクチャは両方を実現することを目指す
THE DECODER
Kreuzberg v4.5.0: Doclingのモデルをとても気に入ったので、より高速なエンジンを搭載しました
Reddit r/LocalLLaMA
今日は、qwen 120B のような比較的大きめのローカルモデルを動かすには、どんなハードウェアを用意すべきか?
Reddit r/LocalLLaMA
会議ノート作成のためにMistralをローカルで実行することは、私の用途には正直十分だ
Reddit r/LocalLLaMA
[D] 5つの年代にわたる単一アーティストの長期的ファインアートデータセットがHugging Faceに公開 — スタイルの進化、人物表現、倫理的トレーニングデータの潜在的応用
Reddit r/MachineLearning