忘れる前に思い出せ:LVLMのアンラーニング・ベンチマークにおける基礎学習の失敗を再検討する

arXiv cs.CV / 2026/5/6

📰 ニュースModels & Research

要点

  • 本論文は、既存のLVLMアンラーニング・ベンチマークは、モデルが最初に対象情報を学習すると仮定している一方で、実際には有効な初期の記憶(memorization)に失敗するケースがあり、評価が信頼できなくなり得ると主張している。
  • 「ステージ1の失敗」を生む主要因として、アンダー・メモリゼーション(記憶不足)と「マルチホップ・カース(多段推論に伴う呪い)」を挙げている。
  • これに対処するため、著者らはReMem(Reliable Multi-hop and Multi-image Memorization Benchmark)を提案し、データのスケーリングを原理に基づいて行い、推論を意識したQAペアや多様な視覚コンテキストを用いることで基礎学習を堅牢化している。
  • さらに、モデル内部の確率分布において情報がどれだけ深く消去されたかを定量化する「Exposure」指標を新たに提案している。
  • 実験結果から、ReMemがLVLMにおける「学習」と「アンラーニング」の双方をより厳密かつ信頼できる形で診断する枠組みになることを示している。