Abstract
大規模言語モデル(LLM)がますます説得力を増すにつれて、さまざまな文脈において、人々の意見や意思決定が大規模に影響を受けるのではないかという懸念があります。これまでの対策(例:AI検出器や免責事項)は、主に人々をAIが生成した情報の受動的な受け手として扱っています。説得力のあるAIに対してより積極的な介入を行うために、私たちは extbf{LLMimic} を導入します。これはロールプレイに基づく、インタラクティブでゲーミフィケーションされたAIリテラシーのチュートリアルであり、参加者はLLMの役を担い、訓練パイプラインの3つの主要段階(事前学習、SFT、RLHF)を通じて進んでいきます。私たちは 2 \times 3 の被験者間研究(N = 274)を実施しました。参加者は(1)AIの歴史に関する動画を視聴する(対照)か、(2)LLMimicと対話する(処置)かのいずれかに割り当てられ、その後、3つの現実的なAI説得シナリオのうちの1つに取り組みました:(a)慈善寄付の説得、(b)悪意のある金銭勧誘、(c)ホテルのおすすめ。結果として、LLMimicは参加者のAIリテラシーを有意に改善しました(p < .001)。また、シナリオを通じた説得の成功を低減しました(p < .05)。さらに、ホテルのシナリオにおいて、真実性と社会的責任の水準を高めました(p<0.01)。これらの発見は、LLMimicがAIリテラシーを向上させ、説得力のあるAIとのより情報に基づいた相互作用を支えるための、スケーラブルで人間中心のアプローチを提供することを示唆しています。