要旨: 文法誤り訂正(GEC)および説明(GEE)は急速に進展してきましたが、実際の指導場面には、
\emph{学習者に優しい教育的フィードバック}が必要です。これは、実行可能で、学習レベルに適しており、かつ励みになるものです。我々は
a datasetを導入します。それは\textbf{SPFG}(\textbf{S}poken \textbf{P}edagogical \textbf{F}eedback \textbf{G}eneration)であり、Speak & Improve Challenge 2025コーパスに基づいて構築されています。流暢性志向の転写と、GECのターゲット、さらに\emph{人手で検証された}教師スタイルのフィードバック(嗜好学習のための、好まれる/却下されるフィードバックのペアを含む)を組にしたものです。転写ベースの音声文法誤り訂正(SGEC)の設定を研究し、3つの指示調整済みLLM(Qwen2.5、Llama-3.1、GLM-4)を評価します。修正とフィードバックを共同で生成するために、教師あり微調整(SFT)と、嗜好に基づくアラインメント(DPOおよびKTOを使用)を比較します。結果は、SFTが最も一貫した改善をもたらす一方で、DPO/KTOはより小さい、または混在した改善しかもたらさないこと、そして訂正品質とフィードバック品質は弱くしか結びついていないことを示しています。本実装は https://github.com/Skywalker-Harrison/spfg で利用可能です。
聞いて訂正し、フィードバックする:音声による教育的フィードバック生成
arXiv cs.CL / 2026/4/17
📰 ニュースTools & Practical UsageModels & Research
要点
- この論文は、文法エラーの訂正と説明に加えて、学習者に優しく実行可能で、学習レベルに適した、励ましのある教育的フィードバックを生成することを目的にした新しいデータセットSPFG(Spoken Pedagogical Feedback Generation)を提案しています。
- SPFGはSpeak & Improve Challenge 2025コーパスを基に構築され、流暢さ重視の転写にGECターゲットと、人手で検証された教師らしいフィードバックを組み合わせ、嗜好学習のための「好まれる/却下される」フィードバック対も含みます。
- 研究では、3種類の指示追従型LLM(Qwen2.5、Llama-3.1、GLM-4)を、転写ベースの音声文法エラー訂正(SGEC)設定で評価し、訂正とフィードバックを共同生成するための手法として、教師あり微調整(SFT)と嗜好ベース整合(DPO、KTO)を比較します。
- 結果として、SFTが最も一貫した改善を示し、DPO/KTOは小さめ、あるいは混在した改善にとどまることが分かりました。また、訂正品質とフィードバック品質は弱くしか結びついていないことが示されています。
- 併せて、実装を公開し(GitHub)、再現性とさらなる研究のために利用可能にしています。



