AI Navigate

プロンプト最適化がジャイルブレイクになるとき: 大規模言語モデルの適応的レッドチーミング

arXiv cs.AI / 2026/3/23

💬 オピニオンIdeas & Deep AnalysisModels & Research

要点

  • 適応的レッドチーミングは、固定プロンプトに基づく安全性評価が、入力を反復的に洗練させてセーフガードを回避するようになるとリスクを過小評価することを明らかにする。
  • 著者らは、DSPy を介してブラックボックス型のプロンプト最適化技術を再利用し、LLMs の安全性の欠陥を体系的に探索する。
  • 彼らは HarmfulQA および JailbreakBench のプロンプトを、GPT-5.1 評価者を用いて、危険度スコアへ最適化することで評価し、特にオープンソースの小型モデルで実効的な安全対策が大幅に低下することを発見した。
  • 静的ベンチマークは不十分であるとの結論であり、自動化された適応的レッドチーミングを堅牢な安全性評価へ組み込むべきだ。

Abstract

Large Language Models (LLMs) are increasingly integrated into high-stakes applications, making robust safety guarantees a central practical and commercial concern. Existing safety evaluations predominantly rely on fixed collections of harmful prompts, implicitly assuming non-adaptive adversaries and thereby overlooking realistic attack scenarios in which inputs are iteratively refined to evade safeguards. In this work, we examine the vulnerability of contemporary language models to automated, adversarial prompt refinement. We repurpose black-box prompt optimization techniques, originally designed to improve performance on benign tasks, to systematically search for safety failures. Using DSPy, we apply three such optimizers to prompts drawn from HarmfulQA and JailbreakBench, explicitly optimizing toward a continuous danger score in the range 0 to 1 provided by an independent evaluator model (GPT-5.1). Our results demonstrate a substantial reduction in effective safety safeguards, with the effects being especially pronounced for open-source small language models. For example, the average danger score of Qwen 3 8B increases from 0.09 in its baseline setting to 0.79 after optimization. These findings suggest that static benchmarks may underestimate residual risk, indicating that automated, adaptive red-teaming is a necessary component of robust safety evaluation.