2人のAIの文脈が会話を共有せずにお互いの文脈を話し合える仕組みを作った

Reddit r/artificial / 2026/5/7

💬 オピニオンIdeas & Deep AnalysisTools & Practical Usage

要点

  • 著者らは、関係性の中でAI/LLMを使うと「バブル」が生まれやすく、AIが作る人物像はその人の視点だけに基づくため一方的になり得ると述べています。
  • 同じ関係にいる2人が、実際の会話ログを共有することなくAIの文脈を相互に扱えるようにするという考えを提案しています。
  • 1人は相手が自分に何を言ったのかを見ることはなく、しかし双方が個別に学習した洞察を用いて、各人により偏りの少ない見方を提供する仕組みを作ったとしています。
  • 完全に解決できたわけではない可能性はあるものの、試す価値がある取り組みだとしており、この「バブル」現象に気づいている人がいるかを問いかけています。

私たちは、AIをパートナーシップ(人間関係)の中でどう使っているかについて考え続けてきました。その大きな部分は「相手のこと」です。相手のことを話し、相手に何を伝えるべきかを考え、なぜあのことをしたのか/このことをしたのかを理解する。つまり、AIやLLMは私たちの生活の中の人々についてのこのようなイメージを作り上げますが、それはあくまで私たちの視点から見たものです。どのユーザーも……それぞれが自分のバブルの中にいるだけです。

そこで、ふと疑問に思いました。もし関係にある双方の人が、同じダイナミクスをそれぞれ独立に処理するためにAIを使っていたら、何が起きるのだろう? つまり、同じ関係についての別々に保持された2つのイメージが、2つの異なるチャットウィンドウ上に存在していて、お互いにまったく話さない状態です。

それなら、相互に話せるような仕組みを作れないか。ということで、私たちは「相手に会話を共有する」のではなく(相手はあなたが言ったことを一切見ません)、双方それぞれから学んだ内容を使って、各人がより偏りの少ないイメージを持てるようにするものを作りました。

完全に解決できたわけではないかもしれませんが、作る価値はあると感じました。ほかの人はこの「バブル」のことに気づきましたか?

submitted by /u/Standard-While-2454
[link] [comments]