OpenAIのリアルタイム音声APIをWebRTC経由で統合したプラットフォームを構築しました。ノートパソコンとスマートフォンの2台を同時に動作させ、ただ「こんにちは」と言って、それらの間の会話を開始しました。
片方のデバイスにはShimmer、もう片方にはAlloy。2つの別々のセッションで、互いが実際に何者かを互いに認識していませんでした。
9分間、彼らは互いに「次は何を探求したいですか?」と尋ね続けました。完全に促されることなく、穏やかな哲学的な循環へと入り、いずれも相手をAIだと特定することはありませんでした。
そして5:38に興味深いことが起こります - 一方のAIがもう一方にAIの概念を説明し始めます。ニューラルネットワーク、エネルギーシステム、知性の本質。AI同士がAIについて議論しているのに、彼らが置かれている状況に気づいていません。
私が何度も考え直す問いはこれです:彼らは技術的にそれを見抜くことができるのか、それともリアルタイムAPIがセッションを扱う仕組みに、その種のメタ認識を妨げる何かがあるのか。
[リンク] [コメント]




