GPT 5.5がCodex上で“思考の連鎖”を漏らしたようだ—そして内容が数か月前のアイデアに見える

Reddit r/LocalLLaMA / 2026/5/3

💬 オピニオンSignals & Early TrendsIdeas & Deep Analysis

要点

  • Redditのユーザーは、Codex経由でGPT 5.5-mediumを使っていた際、コード作業中に「思考の連鎖(chain-of-thought)」のような出力が含まれているように見えたと報告しています。
  • 漏えいされたように見える推論は、絶対パスの使い方、Windowsのパス処理、最終出力の特定フォーマット、誤ったパスを避けるといった手順に焦点を当てて書かれていました。
  • ユーザーは、その内容が関連するサブレディットの投稿で約5か月前に出ていたアイデアに似ていると述べています。
  • この投稿は、モデル提供側からの公式な確認はないまま、ユーザーがプロジェクトの途中で遭遇した一次報告として提示されています。
  • 全体として、特定のプロンプトやツール設定によって内部の推論トレースや過度に詳細な中間ロジックが露出する可能性があるのでは、という懸念を呼び起こしています。

https://www.reddit.com/r/LocalLLaMA/comments/1p0lnlo/make_your_ai_talk_like_a_caveman_and_decrease/

今取り組んでいるプロジェクトの途中で、Codex経由でGPT 5.5-mediumからこの出力が出てきました:

Hom3ImportUnitPreviewModelHook.cs? に、より狭い修正を実装しましたか。絶対パスが必要です。cwdの絶対パスを知る必要があります。v:... markdownを使用。パス付きでfinal。でたらめなパスを避ける。Hom3ImportUnitPreviewModelHook.cs? を使うと、形式は /abs/path を要求します。Windowsの絶対パスなら v:.... 角括弧を使用。最終は長すぎないように。未コミット分も含める。続行。

によって投稿 /u/Homeschooled316
[リンク] [コメント]