脆弱なデータ当事者から脆弱化するデータ実践へ:プラットフォーム化された生活のAIベース分析における「保護のパラドックス」を切り拓く
arXiv cs.CV / 2026/4/20
💬 オピニオンSignals & Early TrendsIdeas & Deep AnalysisModels & Research
要点
- 本論文は、「脆弱性」をデータ当事者の固定的な特性として捉えるのではなく、プラットフォーム化された生活の中でデータ実践によって能動的に作り出されるものだと主張しています。
- 「保護のパラドックス」として、データ駆動型のAIで弱い立場の人々を守ろうとする試みが、逆に計算上の露出を増やし、還元主義を強め、搾取を可能にしてしまうことがあると指摘します。
- AI for Social Goodの事例として、収益化されたYouTubeの“ファミリーヴログ”における子どもの存在をコンピュータビジョンで定量化し、規制のためのアドボカシーに用いるケースを通じて、倫理的リスクがパイプライン上の個別の選択から生じる様子を示します。
- 論文は、データセット設計、運用化(operationalization)、推論(inference)、公開・共有(dissemination)の4つのパイプラインの節目に対応した、反省的(リフレクシブ)な倫理プロトコルを提案します。
- このプロトコルは、「露出(exposure)」「収益化(monetization)」「物語の固定(narrative fixing)」「アルゴリズム最適化(algorithmic optimization)」という4つの横断的な“脆弱化要因”に基づいており、研究者がより倫理的に頑健な判断を行うための指針を与えます。
この記事の続きは原文サイトでお読みいただけます。
原文を読む →

