要旨: 近年の研究により、Transformers は i.i.d. データ、ガウスノイズ、およびガウス回帰係数を含む制限的な前提条件の下で、文脈内学習を線形回帰に対して行えることが示されている。しかし、現実世界のデータはしばしばこれらの仮定を満たさない。入力、ノイズ、および係数の分布は通常未知で、非ガウス分布であり、プロンプト全体にわたって依存性を示す可能性がある。これは根本的な疑問を提起します。現実的な分布的不確実性の下で、Transformers は文脈内で効果的に学習できるのだろうか? 私たちは、非ガウス係数、裾が重いノイズ、および非 i.i.d. プロンプトを含む、広範な分布シフトの下でノイズのある線形回帰における文脈内学習を研究します。 私たちは、対応する最尤基準の下で最適または劣後となる古典的ベースラインと比較します。 あらゆる設定において、Transformers はこれらのベースラインと一致するか、あるいはそれを上回ることが多く、古典的推定器を超える堅牢な文脈内適応を示します。
Transformersは分布的不確実性の下で堅牢なインコンテキスト回帰を学習する
arXiv cs.LG / 2026/3/20
📰 ニュースSignals & Early TrendsIdeas & Deep AnalysisModels & Research
要点
- 著者らは、分布的不確実性の下でのノイズを含む線形回帰に対するインコンテキスト学習を研究し、i.i.d.データやガウス雑音といった仮定を緩和している。
- Transformerは、非ガウス分布の係数、裾が重いノイズ、非i.i.d.のプロンプトを含む広範なシフトの下で、古典的なMLベースラインと同等かそれを上回ることを示している。
- 結果は、従来の推定量を超える回帰タスクに対するインコンテキスト適応の堅牢性を示し、インコンテキスト学習の実用的適用範囲を拡大している。
- 本研究は、対応する最大尤度基準に最適化されたMLベースラインとTransformersの性能を比較し、従来の推定量に対する実用的な利得を強調している。

