LLMSniffer:GraphCodeBERTと教師ありコントラスティブ学習によるLLM生成コードの検出

arXiv cs.CL / 2026/4/20

📰 ニュースSignals & Early TrendsTools & Practical UsageModels & Research

要点

  • 本論文では、GraphCodeBERTを2段階の教師ありコントラスティブ学習で微調整し、LLM生成コードを検出するフレームワーク「LLMSniffer」を提案している。
  • コメント除去の前処理とMLP分類器を組み合わせることで、コードの出自(生成元)を判別するための表現学習の質を高めている。
  • ベンチマークのGPTSnifferとWhodunitで、GPTSnifferでは精度70%から78%へ(F1は68%から78%へ)向上し、Whodunitでは精度91%から94.65%へ(F1は91%から94.64%へ)改善している。
  • t-SNE可視化により、コントラスティブ微調整がより分離され、コンパクトな埋め込み(embedding)を生むことが示され、学習戦略の有効性を裏付けている。
  • モデルのチェックポイント、データセット、コード、さらにライブの対話型デモを公開し、今後の研究を促進する方針としている。

要旨: ソフトウェア開発における大規模言語モデル(LLM)の急速な普及により、人が書いたコードとAIが生成したコードを区別することが、学術的な誠実性、コード品質保証、ソフトウェアセキュリティに影響を及ぼす重要な課題となっています。本研究では、LLMSnifferという検出フレームワークを提示します。これは、コメント除去の前処理とMLP分類器を補強した2段階の教師ありコントラスト学習パイプラインによってGraphCodeBERTを微調整します。2つのベンチマークデータセット――GPTSnifferとWhodunit――で評価した結果、LLMSnifferは先行のベースラインに比べて大幅な改善を達成しました。GPTSnifferでは精度が70%から78%に向上し(F1: 68%から78%)、Whodunitでは91%から94.65%に向上しました(F1: 91%から94.64%)。t-SNEの可視化により、コントラストによる微調整が適切に分離され、コンパクトな埋め込みをもたらすことが確認できました。さらに、我々は今後の研究を促進するために、モデルのチェックポイント、データセット、コード、およびライブなインタラクティブデモを公開します。