LiFT:指示ファインチューニングは大規模言語モデルの時系列(縦断)モデリングにおけるインコンテキスト学習を改善するか?
arXiv cs.CL / 2026/4/21
📰 ニュースIdeas & Deep AnalysisModels & Research
要点
- 本論文は、時系列で並んだテキストにもとづいて「持続」と「変化」を見分けるための推論力を、大規模言語モデルに高めることを目的とした縦断(ロングリューディナル)指示ファインチューニングの枠組みLiFTを提案している。
- LiFTは、多様な縦断NLPタスクを共通の指示スキーマで統一し、時間的な難易度を段階的に高めるカリキュラムに加えて、few-shot構造と時間条件付けを組み合わせて、過去文脈の活用を促す。
- 著者らは5つのデータセットで評価し、時間的粒度の異なるデータで学習したモデルが別データセットでもどれだけ汎化するかを検証している。
- OLMo(1B/7B)、LLaMA-8B、Qwen-14Bといった複数のモデル規模において、LiFTはベースモデルのICLより一貫して性能を上回り、とりわけ分布外データや希少な(少数の)変化イベントで大きな改善が見られる。
関連記事

新しいモデルが出るたびに、当然ながら古いモデルは時代遅れになる
Reddit r/LocalLLaMA

NVIDIA DGX SparkフルスタックAIハッカソンで作ったものが総合1位に—『Starfire』から『Molecules AI』へ
Dev.to

進捗を失わない:VS Codeでプロ仕様のJupyterワークフローをセットアップする(Colabのタイムアウトともおさらば!)
Dev.to

AgentOSを作る:保険請求の「AWS Lambda」を目指している理由
Dev.to

状況はここまで来た——1年で何もかも変わった:Kimi、Minimax、Qwen、Gemma、GLM
Reddit r/LocalLLaMA