告知タイプ: 新着
要旨: 間接性は日常のコミュニケーションにおける一般的な特徴ですが、低資源言語および高資源言語のNLP研究では十分には検討されていません。間接質問回答(IQA)は間接的な回答の極性を分類することを目的としています。 本論文では、英語、標準ドイツ語、および標準表記を持たないドイツ語方言であるバヴァリア語を含む、品質の異なる2つのIQA用多言語コーパスを紹介します。InQA+は手動注釈ラベルを含む小規模で高品質な評価データセットであり、GenIQAはGPT-4o-miniによって生成された人工データを含むより大規模な訓練データセットです。IQAは語用論的には難しいタスクであり、mBERT、XLM-R、mDeBERTaといった多言語トランスフォーマーモデルを用いた複数の実験バリエーションに基づくさまざまな課題が伴います。これらの課題に対処するための推奨事項を提案し、適用します。我々の結果は、英語でさえ低い性能を示し、深刻な過学習を伴います。これらの結果に影響を与えるさまざまな要因を分析します。ラベルの曖昧さ、ラベルセット、データセットサイズを含みます。IQAの性能は、高資源言語(英語、ドイツ語)および低資源言語(バヴァリア語)で乏しいことが分かり、大量の訓練データを確保することが有益であると示唆されます。さらに、GPT-4o-miniは、我々がテストしたいずれの言語においても高品質なIQAデータを生成するのに十分な語用論的理解を持っていません。」}# 返却形式: {
英語・標準ドイツ語・バイエルン語における間接質問応答: 高資源言語と低資源言語の双方にとって挑戦的な課題
arXiv cs.CL / 2026/3/17
💬 オピニオンIdeas & Deep AnalysisModels & Research
要点
- 本論文は、英語・標準ドイツ語・バイエルン語を対象とする2つの多言語IQAコーパス、InQA+とGenIQAを提示する。InQA+は手作業で注釈付けされ、GenIQAはGPT-4o-miniを用いて生成された。
- IQAは実用上難しく、英語でさえ低い性能を示し、深刻な過学習の兆候が見られることから、データの質と量が重要であることを示している。
- 多言語トランスフォーマー(mBERT、XLM-R、mDeBERTa)を用いた実験は、ラベルの曖昧さ、ラベルセットの選択、データセットの規模が結果に大きく影響することを示している。
- 著者らはこれらの課題に対処するための推奨事項を提示し、より大規模なトレーニングデータがIQAの性能を向上させる一方、GPT-4o-miniデータは高品質なIQAデータを生み出さない可能性があると指摘している。


