要旨: データの不足や弱い教師信号は、マンモグラフィのような多くの実世界アプリケーションにおいて、機械学習モデルの性能を引き続き制限しています。この領域では、複数インスタンス学習(Multiple Instance Learning: MIL)がしばしば最良の定式化を提供します。近年の基盤モデルは、そのまま使っても強力な意味表現を提供しますが、MILデータに対するそのような表現の効果的な拡張は依然として限定的です。既存手法はインスタンス単位で動作するため、バッグ内部の依存関係を捉えられないからです。本研究では、表現空間上でMILバッグ全体(すなわち集合)を直接モデル化する生成アーキテクチャであるSetFlowを提案します。提案手法は、フローマッチング(flow matching)のパラダイムと、Set Transformerに着想を得た設計を組み合わせることで、順列不変な入力を扱えるだけでなく、各バッグ内のインスタンス間の相互作用を捉えることを可能にします。モデルはクラスラベルと入力スケールの両方で条件付けされており、首尾一貫し意味的に整合した表現の集合を生成できます。私たちは、最先端のMIL-PF分類パイプラインを用いて、大規模なマンモグラフィのベンチマークでSetFlowを評価します。生成サンプルは元データの分布に非常に近いことが示され、さらに拡張(augmentation)に用いることで下流の性能が向上することさえあります。加えて、合成データのみで学習しても競争力のある結果が得られ、データ不足やプライバシーに配慮が必要なタスクに対して、表現空間での生成モデリングが有効であることを実証しています。
SetFlow:複数インスタンス学習のための表現の構造化セットを生成する
arXiv cs.LG / 2026/4/21
📰 ニュースIdeas & Deep AnalysisModels & Research
要点
- SetFlowは、データ不足や弱い教師信号の制約を背景に、表現空間上でMILの「バッグ」(集合)全体の表現を直接生成する、複数インスタンス学習(MIL)向けの新しい生成モデル手法です。
- Flow matchingとSet Transformerに着想を得た、順列不変なアーキテクチャを組み合わせることで、各バッグ内のインスタンス間の依存関係を捉えます。
- モデルはクラスラベルと入力スケールの両方で条件付けされ、意味的に一貫した表現セットを生成できるようにしています。
- 大規模なマンモグラフィのベンチマークで評価した結果、生成サンプルは元データの分布に近く、さらにデータ拡張として用いると下流性能が向上することが示されています。
- 合成データのみでの学習でも競争力のある結果が得られ、データが乏しい場合やプライバシーに配慮が必要な領域での有効性が示唆されます。
関連記事

新しいモデルが出るたびに、当然ながら古いモデルは時代遅れになる
Reddit r/LocalLLaMA

NVIDIA DGX SparkフルスタックAIハッカソンで作ったものが総合1位に—『Starfire』から『Molecules AI』へ
Dev.to

進捗を失わない:VS Codeでプロ仕様のJupyterワークフローをセットアップする(Colabのタイムアウトともおさらば!)
Dev.to

AgentOSを作る:保険請求の「AWS Lambda」を目指している理由
Dev.to

状況はここまで来た——1年で何もかも変わった:Kimi、Minimax、Qwen、Gemma、GLM
Reddit r/LocalLLaMA