From GPT-2 to Claude Mythos: The return of AI models deemed 'too dangerous to release'

THE DECODER / 4/8/2026

💬 OpinionSignals & Early TrendsIdeas & Deep AnalysisModels & Research

Key Points

  • OpenAIが約7年前にGPT-2を「危険すぎる」として公開を控えた流れが、今回AnthropicのClaude Mythos Previewでも再現されつつあると報じられています。
  • Claude Mythos Previewでは、OSやブラウザに存在する脆弱性をAIが大量に見つけたという“実証的な材料”が提示されているのがポイントです。
  • その脆弱性の数は非常に多く、しかもAIが生成した結果を人間が十分に精査できない規模であることが強調されています。
  • これまで業界が懐疑的だった「リスク」を、技術的な証拠ベースで改めて提示する形になっていると評価されています。

Seven years ago, OpenAI declared its language model GPT-2 "too dangerous to release." The industry rolled its eyes. Now Anthropic is repeating the move with Claude Mythos Preview - but this time there's real evidence on the table: thousands of vulnerabilities in operating systems and browsers, found by an AI that barely any human could review.

The article From GPT-2 to Claude Mythos: The return of AI models deemed 'too dangerous to release' appeared first on The Decoder.