Clearview AIの物語はいまだに、応用AIにおける同意ギャップを最もきれいに示した例の1つのように感じられます。
問題は単に写真が公開されていたということではありません。誕生日の写真、プロフィール画像、地域のイベント画像は、ソーシャルという文脈の中で投稿されるものです。同じ画像を警察のための生体認証の照合システムへと変換することは、目的の転換です。つまり、対象となる相手(オーディエンス)が違う、リスクモデルが違う、そして権力関係が違う。さらに多くの場合、事前の通知もなく、救済手段もありません。
いくつかの前提となるポイント:
- NYTは2020年に、ClearviewのシステムはFacebook、YouTube、Venmo、その他のサイトからスクレイピングした3十億枚超の画像に基づいて構築されたと報じました: https://www.nytimes.com/2020/01/18/technology/clearview-privacy-facial-recognition.html
- オランダのデータ保護当局は2024年、写真を自動的に収集してそれらを生体コードへ変換して作った「違法なデータベース」について、Clearviewに罰金を科しました: https://www.forbes.com/sites/roberthart/2024/09/03/clearview-ai-controversial-facial-recognition-firm-fined-33-million-for-illegal-database/
- その後の報道では、データベースは数十億枚の画像に上るとされ、法執行機関の大規模利用についても記述されました: https://www.businessinsider.com/clearview-scraped-30-billion-images-facebook-police-facial-recogntion-database-2023-4
私が繰り返し立ち返る技術的な問いがあります。「公にアクセス可能(publicly accessible)」ということが、生体認証のインフラを作るための包括的な許可として扱われるべきなのでしょうか?
私の直感はノーです。少なくとも、この種のシステムには、次のような製品上・法的な境界が必要です:
- 目的の限定:ソーシャルへの掲載が、黙ってアイデンティティの検索へと変わってはならない
- 監査可能性:すべての検索は記録され、レビュー可能であり、適法なプロセスに結び付けられている必要がある
- データセットの出所:運用者が、生体テンプレートがどこから来たのかを証明できる必要がある
- 削除と異議申立て:人々には、含まれることや誤用に異議を唱える手段が必要だ
- 範囲の制限:捜査上の利便性は、民主的な授権(authorized)とは同じではない
どこで線を引くのか、興味があります。境界は、スクレイピング、(生体)変換、商業的な販売、法執行機関へのアクセスのどこにありますか?それとも4つすべての組み合わせでしょうか?
[link] [comments]




