PDMP:性能支配的モダリティ優先によるバランス型マルチモーダル学習の再考
arXiv cs.CV / 2026/4/8
💬 オピニオンIdeas & Deep AnalysisModels & Research
要点
- 本論文は、マルチモーダル学習における一般的な問題—十分な最適化が訓練中に行われないために、マルチモーダルモデルが単一モダリティの対応モデルに劣ることがある—を扱う。
- 「バランスの取れた」モダリティ学習が最適であるという従来の前提に異議を唱え、代わりに、性能がより優れた単一モダリティ性能を持つモダリティに支配されるべきだと主張する。
- 提案手法のPDMPは、独立に訓練した単一モダリティモデルのランキングから性能支配的モダリティを特定し、多モーダルモデルの構造や融合アプローチについての知識を必要としない。
- その後PDMPは、支配的モダリティが最適化を主導するように非対称な勾配モデュレーション係数を適用し、「アンダー最適化」はこのモダリティの学習が不十分であることに起因するとする。
- 複数のデータセットにまたがる実験により、PDMPがマルチモーダル性能を改善することが検証されたと報告されている。