OpenAIの安全部門の“人材流出”にようやく説明がつく——その内容はただサム・アルトマンの“ノリ”だった

THE DECODER / 2026/4/7

💬 オピニオンSignals & Early TrendsIdeas & Deep AnalysisIndustry & Market Moves

要点

  • 100回超のインタビューに基づく新しい『ニューヨーカー』のプロフィール記事が、サム・アルトマンの言葉として、なぜOpenAIの安全研究者が繰り返し離職するのかを説明している。
  • アルトマンは“人材流出”を、組織の失敗だけでなく、職務の適性(役割の相性)や、安全に関する仕事への期待の違いによっても一部引き起こされているものだと位置づける。
  • この記事は、安全の仕事に携わる内部の人々にとって、コミットメントに関する意見の相違—批評家からは「欺瞞」と表現され得るもの—が、安全職の一部として受け入れられていると描写している。
  • 全体として、OpenAIの安全分野の人員配置に関する課題を、リーダーシップの“ノリ”として反映された、社内の文化・コミュニケーションやインセンティブの問題だと示唆している。

「私のノリが、あまり合わないんです。」100件以上のインタビューに基づく新しい『ニューヨーカー』のプロフィールで、サム・アルトマンは、なぜ安全性研究者たちがOpenAIを離れ続けているのか、そして他人が欺瞞だと呼び得るようなコミットメントの変更が、実はただ仕事の一部にすぎないのだという理由を説明しています。

この記事 OpenAI's safety brain drain finally gets an explanation and it's just Sam Altman's vibes は、The Decoder に最初に掲載されました。