要旨: 私たちは、探索的検索の中であまり広く認識されていないサブセットに取り組みます。ここでは、ユーザーが通常長い「探索の旅」を開始し、完璧なウェディングドレス、見落とされた研究テーマ、秀逸な企業アイデアなどを探します。
現在の大規模言語モデル(LLMs)の最初のいくつかの出力は役に立つことがありますが、出発点にすぎません。というのも、この探求には探索空間を学習し、道中で多様で創造的な代替案を多く評価する必要があるからです。
LLMsは世界の知識のかなりの部分を符号化していますが、一般的なデコード手法は正解を含むプロンプトに狭く最適化されているため、ほとんど均質で従来型の結果を返します。
回答の少数セット間の多様性を高めることを目的としたものを含む他のアプローチは、ユーザーが最終的な判断を下せるだけの学習を始めるずっと前から自分自身を繰り返し始めたり、似た質問をするすべてのユーザーに均一なタイプの「創造性」を提供したりします。
私たちは、LLMsに持続的な創造性と多様性を誘発する、斬新で実装が容易なデコード方式を開発しました。これは、LLMのベクトル空間の内部機構へアクセスできなくても、望むだけの概念的に独自の結果を生み出します。
このアルゴリズムは、正統派と異端派の両方を含むLLMの広大な知識を解放し、モーダルなデコード経路をはるかに超えます。
このアプローチにより、探索の旅のユーザーは探索空間をより迅速に探索し、満足のいく答えを見つけることができます。
大規模言語モデルにおける持続的な創造性と多様性の促進
arXiv cs.AI / 2026/3/23
📰 ニュースIdeas & Deep AnalysisModels & Research
要点
- 本論文は、初期プロンプトを超えた、大規模言語モデルからの多様で創造的な出力を必要とする探索的検索タスクのサブセットを特定する。
- 標準的なデコード手法は均質で従来的な結果に偏り、探索空間の探索を制限していると主張している。
- 内部ベクトル空間へのアクセスを必要とせず、持続的な創造性と多様性を誘発する新規で実装が容易なデコード手法を提案する。
- このアプローチは正統的な知識と異端的な知識をより効率的に探求できるようにし、長い探索の旅の中で満足のいく答えを見つけるのに役立つ。




