要旨: 生成AIは法的課題がますます激化する中で、機械学習コミュニティは、コンプライアンスを主張するためにポストホック(事後的)な低減策――とりわけ機械アンラーニングや推論時ガードレール――への依存を強めてきた。本論文は、そのようなポストホックの低減手法では、不法な取得と学習から生じる責任を遡って治癒(修復)することはできない、という主張を行う。なぜならコンプライアンスは出力ではなくデータの系譜(データリネージ)に依存するからである。我々の主張は3つの部分から成る。第一に、不正な複製・取り込みは法的に完了した行為となり得て、モデル重みは学習由来の表現上の価値を保持する固定的な複製として機能し得るため、後からのフィルタリングは侵害の観点では的外れになり得る。第二に、契約および不法行為/不公正な競争に関する規則――ライセンス、利用規約、フリーライド(ただ乗り)防止の原則を通じて――は、独立してアクセスと利用を制限し得る。多くの場合、それは(フェアユースやTDM例外などの)著作権の抗弁を回避することになる。第三に、保護された入力からの価値が重みに残存し得るため、不当利得や引き渡し(disgorgement)といった救済は、得られた利益を剥奪することを要し、場合によってはモデルそのものにまで及ぶ必要があるかもしれない。したがって我々は、Post-Hoc Sanitization(事後の衛生化)から、検証可能なEx-Ante Process Compliance(事前プロセスのコンプライアンス)への転換を主張する。
【論文見解】学習中の侵害に対する事後的な救済は不可能
arXiv cs.AI / 2026/4/22
💬 オピニオンSignals & Early TrendsIdeas & Deep AnalysisModels & Research
要点
- 本論文は、生成AIにおける事後的な低減策(機械アンラーニングや推論時ガードレール等)は、不法なデータ取得と学習に対する法的責任を遡って解消できないと主張している。
- 著者らは、無断のコピー/取り込みが法的に完了した行為になり得ること、またモデルの重みが学習由来の表現価値を保持する「固定されたコピー」のように機能し得るため、後からのフィルタリングでは侵害に不十分だと述べている。
- さらに、ライセンスや利用規約、フリーライド防止の考え方などを通じて、契約・不法行為/不正競争のルールが著作権上の抗弁(公正使用やTDM例外など)とは別にアクセスと利用を制限し得ると論じている。
- 保護された入力から得た価値が重みに残り得るため、不当利得の剥奪や収益の没収など、場合によってはモデル自体にまで及ぶ救済が必要になる可能性があるという。
- 結論として、事後的な「サニタイズ」から、データ系譜に基づく検証可能な「事前のプロセス順守」へと転換すべきだと提案している。



