統合は代償を伴うのか?Uni-SafeBench:統合マルチモーダル大規模モデルのための安全ベンチマーク
arXiv cs.AI / 2026/4/2
💬 オピニオンSignals & Early TrendsIdeas & Deep AnalysisModels & Research
要点
- 本論文は、統合マルチモーダル大規模モデル(UMLM)がアーキテクチャの統合によって性能を向上させる一方で、理解と生成を別々に扱うベンチマークと比べて、より深く検討されていない安全上のリスクが生じると主張する。
- 7種類のタスクタイプにまたがり、6つの主要な安全カテゴリをカバーする安全評価ベンチマーク「Uni-SafeBench」を導入し、統合的なマルチモーダルモデリングにおける全体的な安全性を試験することを目的とする。
- 著者らはさらに「Uni-Judger」を提案し、文脈に起因する安全性の影響と、本質的な安全性を分離することで、統合モデルそのものがどこまでできるのかをより厳密に評価できるようにする。
- 評価結果から、統合は能力を高める一方で、基盤となるLLMの内在的な安全性を大幅に低下させることが示される。また、オープンソースのUMLMは、生成または理解のいずれかに特化したマルチモーダルモデルよりも安全性で劣る。
- 本研究は、研究者がこれらのリスクを体系的に明らかにし、より安全なAGI開発を支援できるよう、ベンチマークとリソースを公開する。




