PeerPrism:ピア評価の“出どころ”対原稿作成のAI

arXiv cs.CL / 2026/4/17

📰 ニュースDeveloper Stack & InfrastructureModels & Research

要点

  • この論文は、ピアレビューにおけるLLMの「検出」を人間か完全にAIかという二値で扱う既存手法が、現実の人間×AIのハイブリッドな作業形態を無視していると指摘しています。
  • 人間の「評価の着想(アイデアの出どころ)」と文章の「表現(テキストの出どころ)」を切り分けることを目的とした、大規模ベンチマークPeerPrism(20,690件の査読)を提案しています。
  • 制御された生成設定(完全に人間、完全に合成、複数のハイブリッド変換)を用いた結果、二値タスクでは高精度でも、ハイブリッド条件下では検出器の予測が大きく食い違い、矛盾する分類になることが多いと分かりました。
  • スタイロメトリクス(文体特徴)と意味解析から、既存手法が“文章の見た目の特徴”と“知的貢献”を取り違えていることが示唆されています。
  • 著者らは、ピアレビューにおける帰属は意味推論と文体的実現の両面を含む多次元の構成としてモデル化すべきだと結論づけ、再現可能性のためにコード/データ/プロンプト/評価スクリプトを公開しています。

概要: 大規模言語モデル(LLM)は、科学分野の査読においてますます利用されており、草案作成、書き換え、拡張、洗練などを支援しています。しかし、既存の査読用LLM検出手法は、著者性を二値の問題――人間かAIか――としてほぼ扱っており、現代の査読ワークフローが持つハイブリッドな性質を考慮していません。実際には、評価の着想(アイデア)と表層の実現(サーフェスな文章化)は異なる出所から生じ得るため、人間とAIの協働には連続的な幅(スペクトラム)が存在します。
本研究では、着想の出所(idea provenance)とテキストの出所(text provenance)を明示的に切り分けるために設計された、20,690件規模の査読ベンチマーク「PeerPrism」を提案します。私たちは、完全に人間が生成する場合、完全に合成(合成的)である場合、そして複数のハイブリッド変換をまたぐ、制御された生成レジームを構築します。この設計により、検出器が表層テキストの起源を特定するのか、あるいは評価の推論の起源を特定するのかを、体系的に評価できるようになります。私たちはPeerPrism上で、最先端のLLMテキスト検出手法をベンチマークします。標準的な二値課題(人間対完全に合成)ではいくつかの手法が高い精度を達成する一方で、ハイブリッドなレジームでは予測が鋭く分岐します。特に、アイデアが人間に由来するのに表層の文章がAI生成である場合、検出器は頻繁に意見が一致せず、矛盾した分類結果を出します。スタイロメトリック分析および意味論的分析を伴うことで、私たちの結果は、現在の検出手法が表層の実現と知的貢献とを取り違えている(conflateしている)ことを示します。
結論として、査読におけるLLM検出は、二値の帰属(attribution)問題に還元できないことを示します。代わりに、著者性は、意味論的な推論とスタイル的な実現にまたがる多次元の構成要素としてモデル化される必要があります。PeerPrismは、このような設定における人間とAIの協働を評価する最初のベンチマークです。再現可能な研究を促進するために、すべてのコード、データ、プロンプト、評価スクリプトを https://github.com/Reviewerly-Inc/PeerPrism で公開します。