GPT-5.5 バイオ・バグバウンティ

OpenAI Blog / 2026/4/23

📰 ニュースSignals & Early TrendsTools & Practical UsageModels & Research

要点

  • GPT-5.5 バイオ・バグバウンティは、バイオセーフティ上のリスクにつながり得るユニバーサルなジャイルブレイクを見つけることを目的としたレッドチーミングの挑戦です。
  • 参加者は、バイオ分野の安全に関する脆弱性を特定するため、弱点をテストして悪用の試みを行います。
  • 成果が認められれば報酬は最大25,000ドルで、責任ある開示を後押しする設計になっています。
  • 本取り組みは、高度なAIシステムにおけるバイオ安全上の脅威に対する事前のセキュリティ検証を重視していることを示しています。
GPT-5.5 バイオ・バグ・バウンティを探る:バイオの安全リスクに対するユニバーサルな脱獄(jailbreak)を見つけるためのレッドチーミング・チャレンジ。報奨金は最大25,000ドル。