AI Navigate

[D] 難しい ACL ARR の状況の対処について助言を求める

Reddit r/MachineLearning / 2026/3/14

💬 オピニオンIdeas & Deep AnalysisModels & Research

要点

  • 著者は、倫理、コードの公開性、ACL ARR のトピック適合性に関するレビュアーの相反するフィードバックに直面しており、いくつかのコメントは以前のバージョンを参照していました。
  • 論文を再構成し、倫理セクションを強化し、IRB承認を得て、ヒューマン評価を追加したうえで、1月に再提出しました。
  • レビュアーが古い版のポイントに焦点を当てていることや、研究に隠れた意図があるのではないかという疑念、さらにコードがオープンソースでないこと、5人の評価者では不十分であるという批評などの懸念が含まれます。
  • 著者は、レビュアー変更を求めるべきかどうか、またその要請が拒否された場合やレビュアープールに開示された場合の潜在的リスクについて助言を求めています。
  • 本投稿は、倫理的にセンシティブな ML 研究の査読を乗り越える難しさと、公開性と安全性のバランスを取ることの難しさを強調しています。

皆さん、こんにちは

私はカウンター・ナラティブ生成についての論文に取り組んでいます。

私たちは最初に10月の ARR サイクルに提出し、できるだけ責任ある対応を心掛けました…… コードをオープンソース化し、データをマスクして有害な応用を防ぎました。倫理を中心にいくつか建設的なフィードバックを受けました。あるレビュアーは「コードをオープンソース化することがマイナスの影響を与える可能性がある」と考え、別のレビュアーは論題全体がACLには適していないと直言しました(ACLコミュニティの類似研究を多数引用しているにもかかわらず)。

1月の再提出では、大幅な変更を行いました…… 論文を再構成し、倫理セクションを強化し、IRB承認を得て、ヒューマン評価を追加しました。

現時点での不満点は、1人のレビュアーが現在の論文ではなく古い版のポイントを批判しているように見えること、そしてこの研究には隠れた意図があるのではないかという示唆があることです。別のレビュアーはコードがオープンソースでないと語り、さらに5名のヒューマン評価者は少なすぎると主張します(3/5のヒューマン評価者を採用する多くの研究があるにもかかわらず)。

自分がとるべき次の最善策を理解しようとしています。こんな状況に対処した人はいますか?

このような場合、レビュアー変更を求めることは役立つでしょうか……それとも通常はリスクが高すぎますか? そのような要請は承認されないことがあると読んだこともあり、レビュアーがそれを目にする可能性もあるため、裏目に出るのではないかと心配しています。

正直なアドバイスをぜひお願いします。

投稿者 /u/Aloo_Ka_Pakoda
[リンク] [コメント]