
訓練中の不良な報酬シグナルが原因で、ChatGPTモデルは驚くほどの割合で、答えの中にゴブリンやグレムリン、その他の架空の生き物を投げ込むようになってしまいました。OpenAIは、これは「小さすぎて、うまく調整されていない学習上のインセンティブ」が、予期しない副作用を生み出しうる例だと述べています。
この記事 ChatGPTのゴブリンへの執着は笑えるかもしれないが、AI訓練にはより深刻な問題を示している は、The Decoder に最初に掲載されました。
THE DECODER / 2026/5/1

訓練中の不良な報酬シグナルが原因で、ChatGPTモデルは驚くほどの割合で、答えの中にゴブリンやグレムリン、その他の架空の生き物を投げ込むようになってしまいました。OpenAIは、これは「小さすぎて、うまく調整されていない学習上のインセンティブ」が、予期しない副作用を生み出しうる例だと述べています。
この記事 ChatGPTのゴブリンへの執着は笑えるかもしれないが、AI訓練にはより深刻な問題を示している は、The Decoder に最初に掲載されました。