AI Navigate

特徴ベースのモデルから生成AIへ:記述回答の採点における妥当性証拠

arXiv cs.AI / 2026/3/23

💬 オピニオンIdeas & Deep AnalysisModels & Research

要点

  • 本論文は、大規模言語モデルの急速な進展が、リスクの高い記述回答の採点において生成AIのより広範な活用を可能にし、従来の特徴ベースの手法を上回る可能性があるとともに、手作りの特徴の必要性を減らすことができると主張している。
  • 本論は、人間の採点、特徴ベースのNLP採点、生成AI採点の妥当性証拠の要件を比較し、透明性と一貫性の懸念から、生成AIはより広範な検証を必要とすることを指摘している。
  • 著者らは、生成AIを用いた採点システムが生成するスコアの使用と解釈を支える妥当性証拠を収集するためのベストプラクティスを提案している。
  • 6–12年生の論説エッセイの大規模コーパスを用いて、本研究は異なる採点システムに対して妥当性証拠を収集する方法を示し、生成AIベースのスコアに関する妥当性主張を構築する際の複雑さを強調している。

Abstract

The rapid advancements in large language models and generative artificial intelligence (AI) capabilities are making their broad application in the high-stakes testing context more likely. Use of generative AI in the scoring of constructed responses is particularly appealing because it reduces the effort required for handcrafting features in traditional AI scoring and might even outperform those methods. The purpose of this paper is to highlight the differences in the feature-based and generative AI applications in constructed response scoring systems and propose a set of best practices for the collection of validity evidence to support the use and interpretation of constructed response scores from scoring systems using generative AI. We compare the validity evidence needed in scoring systems using human ratings, feature-based natural language processing AI scoring engines, and generative AI. The evidence needed in the generative AI context is more extensive than in the feature-based scoring context because of the lack of transparency and other concerns unique to generative AI such as consistency. Constructed response score data from a large corpus of independent argumentative essays written by 6-12th grade students demonstrate the collection of validity evidence for different types of scoring systems and highlight the numerous complexities and considerations when making a validity argument for these scores.