RadLite:CPUで動かせる放射線科AIのための小型言語モデルに対するマルチタスクLoRA微調整
arXiv cs.AI / 2026/5/4
💬 オピニオンDeveloper Stack & InfrastructureTools & Practical UsageModels & Research
要点
- 本研究ではRadLiteとして、LoRAの微調整を用いることで、3〜4Bパラメータ規模の小型言語モデルでも高い放射線科のマルチタスク性能を実現でき、GPUに依存しない現場展開が可能になることを示している。
- Qwen2.5-3B-InstructとQwen3-4Bを、12の公開データセットから収集して9つの放射線科タスク(RADS分類、所見生成、時間比較、放射線NLI/NER、異常検出、N/Mステージング、放射線QAなど)をカバーする162Kサンプルで学習した。
- LoRA微調整はゼロショット基準を大幅に上回り、RADS精度+53%、NLI+60%、Nステージ+89%などの改善が報告されている。
- 2つのモデルは補完的であり、Qwen2.5は構造化された生成タスクが得意で、Qwen3は抽出系タスクが強いとされている。また両モデルのタスク別オラクルアンサンブルが全タスクで最高性能を示した。
- 実運用に向けて、モデルはGGUF形式に量子化(約1.8〜2.4GB)でき、一般向けCPU上で約4〜8 tokens/秒の速度で動作可能である。さらに、微調整済みモデルでのfew-shotプロンプトは性能を下げる場合があり、専門領域ではLoRA適応の方がインコンテキスト学習より有効だと結論づけている。



