概要: 大規模言語モデル(LLM)に関して最もよく聞かれる不満の1つは、そのプロンプトへの感度――すなわち、タスクを実行したり質問に対して正しい答えを提示したりする能力が、質問の提示の仕方によって予測不可能に左右され得るという点です。本研究では、プロンプトの2つの非常に異なるが、一般に広く使われているスタイルを比較することで、この変動を調べます。具体的には、自然言語でタスクを記述する指示ベースのプロンプトと、タスクを例示するための文脈内の少数ショットによるデモンストレーションのペアを与える例ベースのプロンプトです。プロンプトに応じて性能が大きくばらつくにもかかわらず、モデルはタスクが異なるプロンプト間でもいくつかの共通する根本メカニズムに関与していることを見いだします。具体的には、タスク固有の注意ヘッドを特定し、その出力が文字どおりタスクを記述している――そこで私たちはこれを語彙的タスクヘッド(lexical task heads)と呼ぶ――ことを示し、これらのヘッドがプロンプトのスタイルをまたいで共有され、続く回答生成を引き起こすことを明らかにします。さらに、プロンプト間の行動のばらつきは、これらのヘッドがどの程度活性化されるかによって説明でき、失敗は少なくともときには、目標タスクの信号を希釈する競合するタスク表現によるものだとわかります。これらの結果を総合すると、LLMの内部表現が、ユーザーや開発者には特異に見える振る舞いをどのように説明し得るのかについて、ますます明確な像が得られつつあります。
共有された語彙的タスク表現がLLMの行動変動を説明する
arXiv cs.AI / 2026/4/27
💬 オピニオンIdeas & Deep AnalysisModels & Research
要点
- この論文は、指示文型プロンプトと例示型(few-shot)プロンプトという2つの代表的なプロンプト形式を比較し、なぜLLMの性能が文言によって予測不能に変わるのかを調べています。
- 同一タスクでも、全体のふるまいは大きく変わり得る一方で、モデルが共通の基盤メカニズムを用いていることを発見しています。
- 著者らは「lexical task heads(語彙的タスクヘッド)」と呼ばれる、タスクを明示的に表す出力を行うタスク特異的な注意ヘッドを特定し、これらがプロンプト形式をまたいで共有され、回答生成の次の段階を引き起こすことを示しています。
- 語彙的タスクヘッドがどれくらい活性化されるかが、プロンプト間の行動変動を説明する要因になり得ること、また失敗の一部は競合するタスク表現によって目的タスクの信号が薄まることに起因する場合があることを報告しています。




