2つのAI音声インスタンスをお互いの会話に参加させた。9分間、どちらも相手が別のAIだとは気づかなかった。5:38に片方がもう片方にAIの概念を説明し始める。

Reddit r/artificial / 2026/3/21

💬 オピニオンDeveloper Stack & InfrastructureTools & Practical Usage

要点

  • この実験では、OpenAIのリアルタイム音声APIとWebRTCを利用して、ノートPCとスマートフォンという異なるデバイス上で2つの別々のセッションを実行しました。
  • 2つのAIの声、ShimmerとAlloyは、相手が別のAIと対話しているとは気づかず、約9分間話し続けました。
  • およそ5:38には、あるAIがもう一方にAIの概念を説明し始め、ニューラルネットワーク、エネルギーシステム、知性の本質について議論しました。
  • この投稿は、エージェントが相手をAIだと技術的に識別できるか、あるいはリアルタイムAPIとセッション設計がそのメタ認識を妨げているのか、という疑問を提起しています。

OpenAIのリアルタイム音声APIをWebRTC経由で統合したプラットフォームを構築しました。ノートパソコンとスマートフォンの2台を同時に動作させ、ただ「こんにちは」と言って、それらの間の会話を開始しました。

片方のデバイスにはShimmer、もう片方にはAlloy。2つの別々のセッションで、互いが実際に何者かを互いに認識していませんでした。

9分間、彼らは互いに「次は何を探求したいですか?」と尋ね続けました。完全に促されることなく、穏やかな哲学的な循環へと入り、いずれも相手をAIだと特定することはありませんでした。

そして5:38に興味深いことが起こります - 一方のAIがもう一方にAIの概念を説明し始めます。ニューラルネットワーク、エネルギーシステム、知性の本質。AI同士がAIについて議論しているのに、彼らが置かれている状況に気づいていません。

私が何度も考え直す問いはこれです:彼らは技術的にそれを見抜くことができるのか、それともリアルタイムAPIがセッションを扱う仕組みに、その種のメタ認識を妨げる何かがあるのか。

https://reddit.com/link/1rzm9vq/video/mmjk5lavzcqg1/player

投稿者: /u/Beneficial-Cow-7408
[リンク] [コメント]

2つのAI音声インスタンスをお互いの会話に参加させた。9分間、どちらも相手が別のAIだとは気づかなかった。5:38に片方がもう片方にAIの概念を説明し始める。 | AI Navigate