表情認識に基づくプロンプト提示:共感的LLMチューターのために
arXiv cs.AI / 2026/4/20
💬 オピニオンSignals & Early TrendsIdeas & Deep AnalysisModels & Research
要点
- 本研究は、テキストのみでは捉えにくい学習者の情動・認知状態に対して、顔の表情に基づく信号をLLMのプロンプトに組み込むことで、チュータリングAIの共感性と有効性が高まるかを検証しています。
- 未ラベルの顔表情動画データセットから多様な表情行動を生成するシミュレーション環境を構築し、テキストのみのベースラインを含む4種類のチューターモデルを比較しました。
- GPT-5.1、Claude Ops 4.5、Gemini 2.5 Proの複数バックボーンでの960件の多ターン会話結果では、Action Unit(AU)に基づく条件付けが表情への共感的応答を一貫して改善し、ピーク表情フレームの選択はランダムな顔フレームの入力より優れていました。
- 改善は、教育的な明確さやテキスト手がかりへの反応の悪化を伴わないことが示されています。
- 顔の表情に根ざした共感でAIと人間の評価一致が最も高く、エンドツーエンド再学習をせずとも軽量で構造化された表情表現がLLMチューターに有意な効果をもたらすと結論づけています。


