要旨: 大規模言語モデル(LLM)の誤用には、合成テキストを正確に検出することが必要である。既存の研究の多くは二値または三値の分類設定に従っているが、これはせいぜい純粋な人間/LLMテキスト、あるいは共同(コラボレーション)テキストを区別することしかできない。さらに、LLMで磨かれた人間の文章と、人間らしくしたLLM文章ではしばしば異なる政策上の帰結を引き起こすため、こうした枠組みでは微妙な規制に対応するには不十分である。本論文では、厳密な4クラス設定におけるきめ細かなLLM生成テキスト検出を探究する。そのような複雑さに対処するため、作成者と編集者の異なるシグネチャを特徴づける微細な検出手法であるRACE(Creator-Editor Modelingのための修辞分析)を提案する。具体的には、RACEは修辞構造理論を用いて作成者の基盤を表す論理グラフを構築し、同時に編集者のスタイルについては初等談話ユニット(Elementary Discourse Unit)レベルの特徴を抽出する。実験の結果、RACEは低い誤警報率のもとで、微細なタイプの同定において12のベースラインを上回り、LLM規制に整合した方策(ポリシー)に基づく解決策を提供することが示された。
最終俳優を超えて:クリエイターとエディターの二重役割をモデル化することで実現するきめ細かなLLM生成テキスト検出
arXiv cs.CL / 2026/4/7
💬 オピニオンSignals & Early TrendsIdeas & Deep AnalysisModels & Research
要点
- 本論文は、既存のLLM生成テキスト検出器が二値/三値の粗い枠組みに留まっており、LLMによって磨かれた人間の文章と、人間化されたLLM文章のような差別化を含む、きめ細かな政策規制を支えるには不十分だと主張する。
- 厳密な4クラスの検出設定を導入し、生成テキストにおけるクリエイターとエディターの違いをモデル化するためのRACE(Rhetorical Analysis for Creator-Editor Modeling)を提案する。
- RACEはRhetorical Structure Theory(修辞構造理論)を用いて、クリエイターの土台(foundation)を表す論理グラフを構築し、エディターのスタイルを捉えるためにElementary Discourse Unit(EDU)単位の特徴量を抽出する。
- 実験結果は、RACEが12のベースラインを上回り、誤検知(false alarms)を抑えつつ、より高精度なきめ細かな識別を実現できることを示し、政策に整合した検出を目指している。
- 本研究では、LLMの不正使用検出を、単一の出所分類タスクではなく「クリエイター—エディターの相互作用問題」として位置づけ、ガバナンスのユースケースにおける解釈可能性を高める。




