LLMとして自分を鍛える:ロールプレイ型LLM訓練を通じた説得に対するAIリテラシーの影響の探究

arXiv cs.CL / 2026/4/6

💬 オピニオンSignals & Early TrendsIdeas & Deep AnalysisModels & Research

要点

  • 本研究では、説得的なLLM出力の影響を事前に(proactively)減らすことを目的とした、ロールプレイ型・インタラクティブ・ゲーミフィケーション要素を備えたAIリテラシー・チュートリアル「LLMimic」を導入する。
  • 参加者を対象とした2×3の被験者間実験(N=274)では、AIの歴史に関する動画を視聴する群と、LLMimicで訓練する群に割り当てたのち、慈善寄付、悪意ある金銭の勧誘、ホテルのおすすめといった、現実的な説得シナリオに直面させた。
  • LLMimicはAIリテラシーを有意に向上させ(p<.001)、各シナリオにおける説得の成功を有意に低下させた(p<.05)。これは、参加者が説得の戦術に対してより抵抗力を高めたことを示している。
  • ホテルのおすすめシナリオでは、訓練により参加者の真実性と社会的責任感も高まった(p<.01)。単なる理解にとどまらない倫理面・行動面での利点が示唆される。
  • 全体として著者らは、LLMimicが、検出器や免責表示のような受動的な防御と比べて、人間中心でスケール可能な対策となり得ると主張している。

Abstract

大規模言語モデル(LLM)がますます説得力を増すにつれて、さまざまな文脈において、人々の意見や意思決定が大規模に影響を受けるのではないかという懸念があります。これまでの対策(例:AI検出器や免責事項)は、主に人々をAIが生成した情報の受動的な受け手として扱っています。説得力のあるAIに対してより積極的な介入を行うために、私たちは extbf{LLMimic} を導入します。これはロールプレイに基づく、インタラクティブでゲーミフィケーションされたAIリテラシーのチュートリアルであり、参加者はLLMの役を担い、訓練パイプラインの3つの主要段階(事前学習、SFT、RLHF)を通じて進んでいきます。私たちは 2 \times 3 の被験者間研究(N = 274)を実施しました。参加者は(1)AIの歴史に関する動画を視聴する(対照)か、(2)LLMimicと対話する(処置)かのいずれかに割り当てられ、その後、3つの現実的なAI説得シナリオのうちの1つに取り組みました:(a)慈善寄付の説得、(b)悪意のある金銭勧誘、(c)ホテルのおすすめ。結果として、LLMimicは参加者のAIリテラシーを有意に改善しました(p < .001)。また、シナリオを通じた説得の成功を低減しました(p < .05)。さらに、ホテルのシナリオにおいて、真実性と社会的責任の水準を高めました(p<0.01)。これらの発見は、LLMimicがAIリテラシーを向上させ、説得力のあるAIとのより情報に基づいた相互作用を支えるための、スケーラブルで人間中心のアプローチを提供することを示唆しています。