MedLayBench-V: A Large-Scale Benchmark for Expert-Lay Semantic Alignment in Medical Vision Language Models
arXiv cs.CL / 4/8/2026
📰 NewsSignals & Early TrendsIdeas & Deep AnalysisModels & Research
Key Points
- 医療用Vision-Languageモデル(Med-VLM)が診断画像の理解で高性能でも、患者向けの「一般向け(lay register)」表現への対応が不足している点を問題提起しています。
- そのギャップに対し、専門家と一般の意味を揃える“expert-lay semantic alignment”に特化した大規模マルチモーダルベンチマークMedLayBench-Vを提案します。
- たんに平易化するだけの手法では幻覚(hallucination)リスクがあるため、Structured Concept-Grounded Refinement(SCGR)パイプラインで厳密な意味同等性を担保する方針です。
- SCGRではUMLSのConcept Unique Identifiers(CUIs)とミクロなエンティティ制約を統合し、意味の対応を検証可能な形で設計しています。
- MedLayBench-Vは、次世代Med-VLMが臨床専門家と患者のコミュニケーションの橋渡しをするための学習・評価の基盤になることを目指しています。
Related Articles

Black Hat Asia
AI Business

Meta's latest model is as open as Zuckerberg's private school
The Register

AI fuels global trade growth as China-US flows shift, McKinsey finds
SCMP Tech

Why multi-agent AI security is broken (and the identity patterns that actually work)
Dev.to
BANKING77-77: New best of 94.61% on the official test set (+0.13pp) over our previous tests 94.48%.
Reddit r/artificial