人間とAIの共同アノテーションに向けた推論ベースの足場の評価:ReasonAlignアノテーションプロトコル

arXiv cs.CL / 2026/3/24

💬 オピニオンSignals & Early TrendsIdeas & Deep AnalysisModels & Research

要点

  • 本論文は、LLMが生成した説明を提示しつつ、モデルの予測ラベルは非公開にする推論ベースのアノテーション足場「ReasonAlign」を提案する。
  • 最終的なアノテーション精度に焦点を当てるのではなく、二段階のDelphiスタイルの修正プロトコルを用いて、露出した推論が人間のアノテーション行動に与える影響を調べる。
  • 感情分類および意見検出の実験により、モデルの推論を見た後のアノテータ間一致度と修正パターンの変化を評価する。
  • 著者らは、露出後にアノテータがラベルをどれだけ修正するかを測定する指標としてAnnotator Effort Proxy(AEP)を導入し、最小限の修正で一致が増加することを見いだす。
  • 全体として、得られた結果は、推論の説明が主に曖昧なケースの解決に人間を助け、より高い整合性を人間–AIの共同アノテーションワークフローにもたらし得ることを示唆している。