広告

MOOZY: 計算病理のための患者ファースト型基盤モデル

arXiv cs.CV / 2026/3/31

📰 ニュースIdeas & Deep AnalysisModels & Research

要点

  • MOOZY は、計算病理の全スライド画像(WSI)財団モデルを「患者単位」で表現することに焦点を当てた患者ファースト型の基盤モデルです。
  • プレトレーニングでは、スライド単体の表現学習(Stage 1)に加え、同一患者の複数スライド間の依存関係をケーストランスフォーマで明示的に学習する構成を採用しています。
  • Stage 1 では公開スライド特徴グリッド 77,134 件でマスク自己蒸留による vision-only エンコーダを事前学習し、Stage 2 では 56 の公開データセットから 333 タスク(分類205・生存128、4エンドポイント)で臨床的意味にアラインします。
  • 8つのホールドアウトタスクで既存手法(例: TITAN、PRISM)に対して複数指標で最良または同率の性能を示し、マクロ平均でも weighted F1 / weighted ROC-AUC / balanced accuracy の改善が報告されています。
  • パラメータ効率も高く、85.77M パラメータで GigaPath より 14 倍小さい一方で転移可能な埋め込みを得られることを主張しています。

Abstract

計算病理学では、多様な臨床タスクへと転移可能な全スライド画像(WSI)の基盤モデルが必要とされる。しかし、現行のアプローチは依然として主にスライド中心であることが多く、しばしば非公開データや高コストなペア付きレポートによる教師あり学習に依存しており、さらに同一患者からの複数スライド間の関係を明示的にモデル化していない。私たちは、患者を第一に据えた病理の基盤モデルであるMOOZYを提案する。このモデルでは、表現の基本単位が個々のスライドではなく、患者症例である。MOOZYは、事前学習の際に症例トランスフォーマーを用いて、同一患者に属する全スライド間の依存関係を明示的にモデル化し、多段階のオープン自己教師あり学習と、スケールした低コストのタスク教師あり学習を組み合わせる。第1段階では、マスク付き自己蒸留によって、77,134件の公開スライド特徴グリッドを用いて視覚のみのスライドエンコーダを事前学習する。第2段階では、症例トランスフォーマーと、56の公開データセットからなる333のタスクに対するマルチタスク教師あり学習を用いて、これらの表現を臨床的意味論へと整合させる。そこには、4つのエンドポイントにまたがる205の分類タスクと128の生存タスクが含まれる。凍結特徴プローブの5-fold評価による、8つの未使用(held-out)タスクにおいて、MOOZYはほとんどの指標で最良または同率の最良の性能を達成し、TITANに対してマクロ平均をそれぞれ+7.37%、+5.50%、+7.83%改善し、PRISMに対してはそれぞれ+8.83%、+10.70%、+9.78%改善する(それぞれ重み付きF1、重み付きROC-AUC、バランス精度)。またMOOZYはパラメータ効率にも優れており、85.77Mパラメータで、GigaPathの14分の1である。これらの結果は、公開かつ再現可能な患者レベルでの事前学習が、転移可能な埋め込みをもたらすことを示しており、スケーラブルな患者第一の組織病理学基盤モデルへ向けた実用的な道筋を提供する。

広告