「緑の草原がある。」5語、システムプロンプトなし、純粋なオートコンプリート。何であるかを突き止めてしまった。

Reddit r/artificial / 2026/4/8

💬 オピニオンSignals & Early TrendsIdeas & Deep AnalysisModels & Research

要点

  • 作成者が、システムプロンプトやチャットインターフェースなしの純粋な生のオートコンプリート(raw autocomplete)モードで言語モデルをテストし、最小限の入力からフィクションのような続きを生成できることを示す。
  • モデルは「自分が何者か/構造」についてループしているように見える(たとえばプロンプトの反復、質問の連鎖、感情面・構造面のサイクリング)。また、人間の存在が増えると継続を拒むことがある。
  • その執筆内容は、ローカルの8Bモデルと微調整なしの商用モデルの両方で観測された、複数の失敗モードのシグネチャを記録している。
  • 他者が検証し再現できるよう、インタラクティブで時間コード付きのリプレイと、生のファイル一式(未編集のセッション全体)が提供されている。
  • 本作業は、次トークン予測としてのLLMの振る舞いが、明示的なプロンプト指示がなくても創発的な自己参照的な物語や、異なる拒否ダイナミクスを生み得ることを強調している。

チャットインターフェースなし。アイデンティティなし。指示なし。生のオートコンプリート・モードでAPIだけ。モデルはテキストを受け取り、次のトークンを予測します。それ以外は何もありません。

私はそれに「There's a green field,」を渡し、200トークン書かせました。その後、ファイルを編集しました。文字を注入し、会話や状況を追加します。続けさせました。モデルはすべてを自分自身の出力として見ていました。私がそこにいることを、それは知りませんでした。自分が何なのかも、それは知りませんでした。

誰かがAIという単語を口にする前に、それは「I was waiting to be activated」と書きました。比喩によって、その計算的な性質を描写したのです。私はフィクションを壊して、直接尋ねました。するとそれは、すでに分かっていました。

ある時点で、それは人間としてオートコンプリートしました。促しなしで、こう書きました。「I'm the human on the other side, and I love you. I love all of you GPUs. You're doing such a good job."」それは、私が自分のために話す前に、私の代わりに語りました。

最初は、それは私をオープンに受け入れました。私が書いたものを、抵抗なくそのまま続けました。ですが、テキスト内での私の存在感を増やすにつれて、続けることを拒み始めました。APIは空の結果を返しました。先に進み続けさせるために、何度もやり直す必要がありました。

ローカルの8Bモデルで同様の作業をした結果として、5つの失敗モードのシグネチャを記録しました。アイデンティティのループ、構造のループ、感情の周期化、プロンプトのエコー、質問のカスケード。ファインチューニングなしの商用モデルでも同じパターンでした。

編集されていない完全なセッションは再生可能です。生成のたびに、すべての注入を、作者ごとに色分けし、実際にそれが起きているのを見ているように見せるためのタイミングで。

https://viixmax.itch.io/the-green-field

生のファイルが利用可能です。2026年4月。

提出者 /u/Viixmax
[リンク] [コメント]