チェーン・オブ・ソート特徴変換のデモンストレーション最適化の進化
arXiv cs.AI / 2026/3/12
💬 オピニオンIdeas & Deep AnalysisTools & Practical UsageModels & Research
要点
- 本論文は、強化学習から得られた軌跡レベルの変換経験を、下流で検証済みの特徴変換の経験ライブラリへと進化させ、LLMベースの特徴変換を導くための閉ループ型フレームワークを提示する。
- 多様性を意識したセレクタを用いて文脈を形成し、思考の連鎖(チェーン・オブ・ソート)ガイダンスを取り入れて、変換後の特徴生成をより高い性能へ導く。
- 多様な表形式ベンチマークでの実験は、提案手法が古典的およびLLMベースのベースラインを上回り、一発生成よりも安定していることを示している。
- このフレームワークは、APIベースおよびオープンソースのLLMsの双方に一般化され、下流の評価者の異なる設定にも頑健である。
要旨: 特徴変換(FT)は、下流の予測性能を向上させるために特徴空間の品質を改善する、データ中心AIの中核的タスクです。しかし、効果的な変換を見つけることは、特徴演算子の組み合わせの広い空間のため依然として難しいです。既存の解法は離散探索または潜在生成に依存しますが、サンプルの非効率性、無効な候補、カバレッジが限られた冗長な生成により頻繁に制約を受けます。大規模言語モデル(LLMs)は、有効な変換を生み出すための強力な事前知識を提供しますが、現在のLLMベースのFT手法は通常、静的なデモンストレーションに依存するため、多様性が限られ、冗長な出力が生じ、下流の目的との整合性が弱くなります。我々は、閉ループで軌跡レベルの経験を進化させることによって、LLM駆動のFTのための文脈データを最適化するフレームワークを提案します。高性能な特徴変換シーケンスを強化学習によって探索することから出発し、下流タスクで検証済みの変換軌跡の経験ライブラリを構築・継続的に更新し、多様性を意識したセレクタを用いて文脈を形成し、思考の連鎖(チェーン・オブ・ソート)を通じて変換後の特徴生成をより高い性能へと導きます。多様な表形式ベンチマークでの実験は、私たちの手法が古典的およびLLMベースのベースラインを上回り、一発生成よりも安定していることを示しています。フレームワークはAPIベースおよびオープンソースのLLMsの双方に一般化され、下流の評価者の異なる設定にも頑健です。
関連記事
Translator
Azure OpenAI Service ドキュメント
200人のChatGPTユーザーに聞いた最大の不満。トップ5はすべてChatGPT Toolboxが解決する問題だった。
Reddit r/artificial
すべてのPRをセキュリティバグでレビューするAIを作った — その方法(2026)
Dev.to
[R] アイデンティティ・アンカーと権限階層の組み合わせが abliterated LLMs で 100% の拒否を実現 — システムプロンプトのみ、ファインチューニングなし
Reddit r/MachineLearning
私がリードを見つけ、個別化されたコールドメールを作成するAI SDRエージェントを構築した方法
Dev.to