Zobrazeno 1 - 8
of 8
pro vyhledávání: '"Tang, Zongheng"'
Transformers have revolutionized the object detection landscape by introducing DETRs, acclaimed for their simplicity and efficacy. Despite their advantages, the substantial size of these models poses significant challenges for practical deployment, p
Externí odkaz:
http://arxiv.org/abs/2409.06443
Autor:
Huang, Shaofei, Ling, Rui, Li, Hongyu, Hui, Tianrui, Tang, Zongheng, Wei, Xiaoming, Han, Jizhong, Liu, Si
In this paper, we propose an Audio-Language-Referenced SAM 2 (AL-Ref-SAM 2) pipeline to explore the training-free paradigm for audio and language-referenced video object segmentation, namely AVS and RVOS tasks. The intuitive solution leverages Ground
Externí odkaz:
http://arxiv.org/abs/2408.15876
This paper presents a DETR-based method for cross-domain weakly supervised object detection (CDWSOD), aiming at adapting the detector from source to target domain through weak supervision. We think DETR has strong potential for CDWSOD due to an insig
Externí odkaz:
http://arxiv.org/abs/2304.07082
Publikováno v:
In Pattern Recognition April 2024 148
Autor:
Tang, Zongheng, Liao, Yue, Liu, Si, Li, Guanbin, Jin, Xiaojie, Jiang, Hongxu, Yu, Qian, Xu, Dong
In this work, we introduce a novel task - Humancentric Spatio-Temporal Video Grounding (HC-STVG). Unlike the existing referring expression tasks in images or videos, by focusing on humans, HC-STVG aims to localize a spatiotemporal tube of the target
Externí odkaz:
http://arxiv.org/abs/2011.05049
Akademický článek
Tento výsledek nelze pro nepřihlášené uživatele zobrazit.
K zobrazení výsledku je třeba se přihlásit.
K zobrazení výsledku je třeba se přihlásit.
Akademický článek
Tento výsledek nelze pro nepřihlášené uživatele zobrazit.
K zobrazení výsledku je třeba se přihlásit.
K zobrazení výsledku je třeba se přihlásit.
Akademický článek
Tento výsledek nelze pro nepřihlášené uživatele zobrazit.
K zobrazení výsledku je třeba se přihlásit.
K zobrazení výsledku je třeba se přihlásit.