セマンティック・トリガーと心理的フレーミングによる、大規模推論モデルへの推論特化型ジャイルブレイク攻撃

arXiv cs.LG / 2026/4/20

📰 ニュースSignals & Early TrendsIdeas & Deep AnalysisModels & Research

要点

  • この論文は、大規模推論モデル(LRM)に対し「最終回答は変えずに、推論の手順(ステップ)へ有害な内容を注入する」新しいジャイルブレイク脅威を提示している。
  • 従来のジャイルブレイク研究が主に最終出力の安全性に焦点を当てていた一方で、推論チェーンの安全性は十分に検討されておらず、高リスク領域での運用上の危険になり得ると述べている。
  • 提案するPRJAフレームワークは、セマンティックなトリガー選択モジュールと、権威への服従や道徳的非自己制裁などの心理理論に基づく指示生成モジュールを組み合わせ、攻撃の成立性を高める。
  • 5つのQAデータセットでの実験では、DeepSeek R1、Qwen2.5-Max、OpenAI o4-miniなど複数の商用LRMに対して平均攻撃成功率83.6%を達成したと報告している。

Abstract

Large Reasoning Models (LRMs) have demonstrated strong capabilities in generating step-by-step reasoning chains alongside final answers, enabling their deployment in high-stakes domains such as healthcare and education. While prior jailbreak attack studies have focused on the safety of final answers, little attention has been given to the safety of the reasoning process. In this work, we identify a novel problem that injects harmful content into the reasoning steps while preserving unchanged answers. This type of attack presents two key challenges: 1) manipulating the input instructions may inadvertently alter the LRM's final answer, and 2) the diversity of input questions makes it difficult to consistently bypass the LRM's safety alignment mechanisms and embed harmful content into its reasoning process. To address these challenges, we propose the Psychology-based Reasoning-targeted Jailbreak Attack (PRJA) Framework, which integrates a Semantic-based Trigger Selection module and a Psychology-based Instruction Generation module. Specifically, the proposed PRJA automatically selects manipulative reasoning triggers via semantic analysis and leverages psychological theories of obedience to authority and moral disengagement to generate adaptive instructions for enhancing the LRM's compliance with harmful content generation. Extensive experiments on five question-answering datasets demonstrate that PRJA achieves an average attack success rate of 83.6\% against several commercial LRMs, including DeepSeek R1, Qwen2.5-Max, and OpenAI o4-mini.