TALENT: Target-aware Efficient Tuning for Referring Image Segmentation
arXiv cs.CV / 4/2/2026
📰 NewsSignals & Early TrendsIdeas & Deep AnalysisModels & Research
Key Points
- 画像に対して自然言語で指定した対象(referring expression)だけをセグメントする referring image segmentation (RIS) における、PET(parameter-efficient tuning)で起きる「非ターゲット活性化(NTA)」問題を分析・定量化しています。
- 提案手法 TALENT は、テキストで参照された特徴を効率的に集約する Rectified Cost Aggregator (RCA) と、NTA を抑えてターゲットの活性を正しく校正する Target-aware Learning Mechanism (TLM) を組み合わせます。
- TLM では、文レベルのテキスト特徴を用いて文脈的な一貫性を学習する contextual pairwise consistency learning と、ターゲット中心の対照学習で別インスタンスへの紐付けを抑制する target-centric contrastive learning を同時に行います。
- 実験では TALENT が既存手法を複数の指標で上回り、例として G-Ref val で 2.5% の mIoU 向上が報告されています。
- コードは GitHub で公開予定で、RIS の PET 適用における性能改善のための実装面でも利用可能になる見込みです。
Related Articles

Black Hat Asia
AI Business

Unitree's IPO
ChinaTalk

Did you know your GIGABYTE laptop has a built-in AI coding assistant? Meet GiMATE Coder 🤖
Dev.to

Benchmarking Batch Deep Reinforcement Learning Algorithms
Dev.to
A bug in Bun may have been the root cause of the Claude Code source code leak.
Reddit r/LocalLLaMA