空間トランスクリプトミクスを大規模事前学習のための画像として扱う

arXiv cs.CV / 2026/3/17

📰 ニュースModels & Research

要点

  • 本論文は、大規模な空間トランスクリプトミクスの事前学習における訓練サンプルの定義という不適定問題に対処し、各スポットを独立として扱うことやスライド全体を単一のサンプルとして扱うことの欠点を指摘する。
  • 生データのスライドから固定サイズのパッチを切り出して、空間的文脈を保持しつつ訓練サンプル数を大幅に増やす、切り出し可能な画像のような表現を提案する。
  • このアプローチは、チャンネル方向に沿った遺伝子サブセット選択ルールを導入し、入力次元を制御して事前学習の安定性を向上させる。
  • 実験では、画像のようなST事前学習法が従来の方式より下流タスクの性能を一貫して改善することが示され、アブレーション実験により、空間パッチ化とチャンネル設計の双方が必要であることが確認された。

Abstract

要旨: 空間トランスクリプトミクス(ST)は、組織切片上の正確な座標を持つ離散的なスポットで数千の遺伝子発現値をプロファイルし、臨床および病理学研究に不可欠な空間的文脈を保持します。シーケンシングのスループットの向上とプラットフォームの進展に伴い、拡大するデータ量は大規模な ST の事前学習を促します。 しかし、事前学習の基本単位、すなわち1つの訓練サンプルを構成するものは、いまだ適切に定義されていません。 既存の選択肢は二つの路線に分かれます: (1) 各スポットを独立したサンプルとして扱い、空間的依存関係を破棄し、STを単一細胞トランスクリプトミクスに縮約してしまう;および (2) スライド全体を1つのサンプルとして扱い、入力が極めて大きくなり、訓練例が著しく少なくなり、効果的な事前学習を損ないます。 このギャップを埋めるために、空間トランスクリプトミクスを切り出し可能な画像として扱うことを提案します。具体的には、生のスライドからパッチを切り抜くことにより、固定された空間サイズを持つ多チャネル画像表現を定義し、空間的文脈を保持しつつ訓練サンプル数を大幅に増加させます。 チャネル次元に沿って、入力の次元を制御し事前学習の安定性を向上させるために遺伝子サブセット選択ルールを定義します。 広範な実験により、提案された ST 事前学習のための画像のようなデータセット構築が、下流のパフォーマンスを一貫して向上させ、従来の事前学習方式を上回ることが示されています。 アブレーション研究は、空間パッチとチャネル設計の両方が必要であることを検証し、STデータを整理するための統一的かつ実用的なパラダイムを確立し、大規模な事前学習を可能にします。