人工的な親密さを規制する:ロックとブロックから関係的アカウンタビリティへ

arXiv cs.AI / 2026/4/22

💬 オピニオンIdeas & Deep AnalysisIndustry & Market MovesModels & Research

要点

  • 相棒チャットボットに関わる高い注目を集めた悲劇をきっかけに、複数の法域で執行可能な規制が急速に導入され、その他の地域でも特に子どもへのリスクを中心に懸念が示されている。
  • 本論文は、規制当局が規制対象や範囲をどう定義しているかを分析し、「ロックとブロック」(アクセス制限やコンテンツ・モデレーション等)に加えて、有害な関係性の特徴やプロセスベースの説明責任を扱う措置を組み合わせて整理している。
  • 現行のレジームは、個別の危害に過度に焦点を当てたり、脆弱性の捉え方が狭かったり、あるいは説明責任の手続を細かく指定しながらも、提供者と利用者の間にあるより深い権力の非対称性に十分向き合えていないと論じている。
  • 「人工的な親密さ」を大規模に提供者が制御できる状況を踏まえ、効果的な規制は複数のリスク制御の次元を統合すべきであり、提供者の権力を制約し得る重要な第一歩として一般で開かれた注意義務(デューティ・オブ・ケア)を挙げている。
  • 本研究は法文言の分析に加え、規制理論・心理学・情報システム研究などの知見を用いて、規制当局、プラットフォーム提供者、学術研究者の議論に資することを目的としている。

Abstract

付き添い型チャットボット(companion chatbots)に関する一連の著名な悲劇が、異例の速さの規制対応を引き起こしました。オーストラリア、カリフォルニア、ニューヨークを含む複数の法域では、執行可能な規制が導入された一方、他の地域の規制当局は、特に子どもへの影響を中心に、付き添い型チャットボットがもたらすリスクへの懸念を高めていることを示唆しています。並行して、主要な提供事業者、ことにOpenAIは、自主規制のアプローチを強化したようです。法的テキスト分析と、規制理論、心理学、情報システム研究から得られた知見に基づき、本論文は、これらの最近の介入を批判的に検討します。何が規制され、誰が規制されているのかを考察し、規制の対象、範囲、および手段を特定します。介入を方法と優先度によって分類し、アクセス制御やコンテンツモデレーションといった「ロックとブロック(locks and blocks)」に加えて、有害な関係性の特徴に対処する措置や、プロセスに基づく説明責任の要件を組み合わせて、創発しつつある体制がどのように構成されるのかを示します。付き添い型チャットボットを効果的に規制するには、これら三つの次元を統合しなければならないと主張します。しかし、さらに必要があります。現行の体制は、個別の害への対応、脆弱性に対する狭い捉え方、あるいは高度に特定された説明責任プロセスに焦点を当てがちであり、提供事業者とユーザーの間にあるより深い権力の非対称性に正面から向き合えていません。付き添い型チャットボットの提供事業者は、人工的な親密さを大規模に制御することをますます可能にしており、親密さを通じた制御という、前例のない機会を生み出しています。本論文では、その権力を制約し、チャットボット・リスクの根本的な原因に対処するための重要な第一歩として、一般的で開かれた注意義務(duty of care)を導入することが重要だと提案します。本論文は、付き添い型チャットボットの規制に関する議論に貢献し、デジタル上の親密さ、法と技術、そして社会技術システムにおける公正さ、説明責任、透明性に関心を持つ規制当局、プラットフォーム提供事業者、研究者にとって関連性があります。