表形式ファンデーションモデルに対するアクティブ・インコンテキスト学習
arXiv cs.LG / 2026/3/31
💬 オピニオンIdeas & Deep AnalysisModels & Research
要点
- 本論文は、表形式のコールドスタート設定では、ラベル付きサンプルがごく少数の段階では不確実性推定が信頼できなくなるため、従来のアクティブ・ラーニングがうまく機能しにくいと主張する。
- 学習済みのモデルの重み更新を行わずに、インコンテキスト内のラベル付きコンテキストを最適化できる表形式ファンデーションモデル(例:TabPFN)を活用した、Tabular Active In-Context Learning(Tab-AICL)を提案する。
- 著者らは、新しいラベルを選択するための4つの獲得(acquisition)戦略を形式化する:不確実性(TabPFN-Margin)、多様性(TabPFN-Coreset)、不確実性と多様性のハイブリッド(TabPFN-Hybrid)、およびスケーラブルな2段階のショートリスト作成→選択アプローチ(TabPFN-Proxy-Hybrid)。
- 20の分類ベンチマークに関する実験により、Tab-AICLは再学習する勾配ブースティングのベースライン(CatBoost/XGBoostのマージン)に比べてコールドスタート時のサンプル効率を改善し、最大で100ラベル付きサンプルまでの範囲で、正規化AULC(normalized AULC)によって測定される改善を達成する。
- 本研究は、表形式ファンデーションモデルのキャリブレーションと、コンテキスト最適化に基づく獲得戦略を組み合わせることが、実務での低データ領域におけるラベリングコスト削減につながる有望な道筋であると位置づける。



