AI Navigate

モダリティ間およびタスク間で有用性を保証する視覚-言語モデルのバイアス除去の閉形式解

arXiv cs.CV / 2026/3/16

📰 ニュースIdeas & Deep AnalysisModels & Research

要点

  • 本論文は、訓練を必要としない視覚-言語モデルのデバイアス除去手法を提案し、クロスモーダル空間において閉形式解を生み出すとともに、パレート最適な公平性と有界な有用性の損失を実現します。
  • 注釈付きデータを必要とせず、再訓練なしで下流タスク全体にわたって視覚モダリティとテキストモダリティの両方を共同でデバイアス除去できる。
  • この手法は、ゼロショット画像分類、テキストから画像への検索、テキストから画像生成といったタスクにおいて、グループ指標および交差的指標にわたる公正性を達成しつつ、タスク性能を維持します。
  • 広範な実験により、本手法は多様なデータセットと公正性指標に対して従来のデバイアス除去手法を上回ることが示されています。

要旨: 視覚と言語モデル(VLMs)は、多様な下流タスクにおいて顕著な性能を達成していますが、最近の研究では、それらが学習データから社会的バイアスを継承し、それを下流のアプリケーションへとさらに伝播させる可能性があることが示されています。この問題に対処するため、さまざまなデバイアス除去アプローチが提案されていますが、それらの多くは、モデルの有用性が保持されるという理論的保証を持たずに、公正性の向上を目指しています。
本論文では、クロスモーダル空間において\textbf{閉形式}の解を生み出すデバイアス除去手法を提案し、\textbf{有界な有用性の損失}を伴いながらパレート最適な公正性を達成します。
本手法は\textbf{トレーニング不要}、\textbf{注釈付きデータ不要}で、下流タスク全体にわたって視覚モダリティとテキストモダリティの両方を共同でデバイアス除去できます。
豊富な実験により、私たちの手法は、ゼロショット画像分類、テキストから画像の検索、テキストから画像の生成といった下流タスクにおいて、グループおよび\textbf{インターセクショナル}公平性のための多様な公正性指標とデータセットで既存の手法を上回ることを示しており、タスク性能を維持します。

返却形式: {"translated": "翻訳されたHTML"}