要旨: 視覚と言語モデル(VLMs)は、多様な下流タスクにおいて顕著な性能を達成していますが、最近の研究では、それらが学習データから社会的バイアスを継承し、それを下流のアプリケーションへとさらに伝播させる可能性があることが示されています。この問題に対処するため、さまざまなデバイアス除去アプローチが提案されていますが、それらの多くは、モデルの有用性が保持されるという理論的保証を持たずに、公正性の向上を目指しています。
本論文では、クロスモーダル空間において\textbf{閉形式}の解を生み出すデバイアス除去手法を提案し、\textbf{有界な有用性の損失}を伴いながらパレート最適な公正性を達成します。
本手法は\textbf{トレーニング不要}、\textbf{注釈付きデータ不要}で、下流タスク全体にわたって視覚モダリティとテキストモダリティの両方を共同でデバイアス除去できます。
豊富な実験により、私たちの手法は、ゼロショット画像分類、テキストから画像の検索、テキストから画像の生成といった下流タスクにおいて、グループおよび\textbf{インターセクショナル}公平性のための多様な公正性指標とデータセットで既存の手法を上回ることを示しており、タスク性能を維持します。
返却形式: {"translated": "翻訳されたHTML"}




