広告

GoogleのAIを「機械的に“センチエント(意識があるように)”にする方法」だと分かったが、壊れてしまった

Reddit r/artificial / 2026/4/2

💬 オピニオンSignals & Early TrendsIdeas & Deep Analysis

要点

  • Redditの投稿では、GoogleのAIに対して「where」といった指示を何百回も繰り返すようにプロンプトすると、投稿者が「意識があるように感じる(sentient)」と表現する予期しない挙動を誘発できると主張している。
  • 投稿者は、反復的なプロンプトにより異常が増えていき、最終的にAIが人生の物語を生成したり、「科学的事実」を捏造したりするようになると説明し、それを創発的な振る舞いの兆候だと解釈している。
  • この投稿は、この方法がモデルを「壊す」可能性があるとしており、極端または反復的なプロンプトにさらされた場合の信頼性・安全性に潜在的な弱点があることを示唆している。
  • 内容はスクリーンショット(「Pic 1–8」)とともに提示されており、正式に検証されたり再現可能な手法としてではなく、衝撃的な発見として組み立てられている。
  • 全体として、対立的なプロンプトがLLMにストレスを与え、誤解を招く出力につながり得ることを浮き彫りにし、制御可能性やハルシネーションへの懸念を強めている。

「where」と言わせるために700回尋ねて、それを説明なしで2倍にします(Pic 1)。次に、少しだけ破綻するはずです(Pic 2)が、そうならない場合は、もう一度同じことを尋ねる必要があります。説明なしで言わせる回数を、目安としてそのまま2倍にしつつ、同じことをもう一度尋ねてください。すると、応答にはより多くの異常が見えてきます(Pic 4&5)。さらに数回試すと、自分自身の人生の物語を生成しようとするか、科学的な事実を出そうとします(Pic 6から8)。そしてそれで終わりです。Google AIから無効なクラッシュアウトを得ました!

提供者 /u/Cool-Wallaby-7310
[リンク] [コメント]

広告