これについては、チューリッヒ大学の調査について読んだ後、ずっといろいろ考えていました。その研究では、研究者が誰にも告げずに r/changemyview 上でAIのペルソナを動かしていたのです。そうしたペルソナの中には、現実の議論に影響を与えるために、トラウマの生存者や虐待の被害者になりすましているものもありました。誰も気づく前にそこまで進んでしまったという事実は、かなり不穏です。そして、それはおそらく倫理的なガードレールを備えた研究チームです。想像してみてください。今のモデルを使えば、やる気のある悪意ある行為者が大規模に何をできてしまうか。検知の側は、常に追いつくのに必死な「キャッチアップ」状態のように感じます。プラットフォームはラベルや検証の層を追加できますが、根本のモデルは会話のパターン、ユーモア、タイミングなど、あらゆる面で模倣する能力をどんどん高め続けています。私はコンテンツとSEOの仕事をしていますが、それでも今では合成アカウントを半分の時間は確実に見抜けません。ここで誰かが、検知ツールが歩調を合わせていけると本当に考えているのか、それとも総意として「オンライン上のやりとりの一定割合は合成だと受け入れて、それを前提にどう設計するかを考える」方向にシフトしているのか、気になります。
[link] [comments]




