理由を教えて:学習者の問題行動診断のための説明可能なLLMベース対話システムの設計

arXiv cs.AI / 2026/4/27

💬 オピニオンIdeas & Deep AnalysisTools & Practical UsageModels & Research

要点

  • 本論文は、学習者の問題行動を診断し、行動カテゴリや介入戦略を提案する際に、その根拠となる対話エビデンスとともに提示できる、説明可能な微調整LLMベース対話システムを提案している。
  • 説明可能AI(xAI)に基づく階層的アトリビューション手法を導入し、各提案が対話のどの情報に支えられているかを追跡する。
  • 見つけたエビデンスを自然言語の説明へ変換することで、透明性の向上を図っている。
  • 技術評価では、根拠エビデンスの特定においてベースラインより優れており、22名の教育実習前教員を対象とした予備ユーザースタディでは、説明がある場合にシステムへの信頼感が高いと報告された。

要旨: 学生の問題行動を診断するには、教師が多面的な情報を統合し、行動カテゴリーを特定し、介入方略を計画する必要があります。微調整済みの大規模言語モデル(LLM)は、多ターン対話によってこのプロセスを支援できますが、推奨される方略の理由を説明することはほとんどなく、透明性と教師の信頼が損なわれます。これに対処するため、我々は微調整済みLLMに基づく説明可能な対話システムを提案します。このシステムは、説明可能なAI(xAI)に基づく階層的な帰属(attribution)手法を用いて、各推奨に対する対話上の根拠となる証拠を特定し、その証拠に基づいて自然言語による説明を生成します。技術的評価では、この方法は支持する証拠の特定においてベースライン手法を上回りました。また、22名の教職課程の履修者を対象とした予備的なユーザ研究では、説明を受けた参加者はシステムへの信頼が高いと報告しました。これらの結果は、教育用対話システムにおけるLLMの説明可能性を改善する有望な方向性を示唆しています。