Zobrazeno 1 - 10
of 20
pro vyhledávání: '"Tian, Kaibin"'
In recent years, text-to-video retrieval methods based on CLIP have experienced rapid development. The primary direction of evolution is to exploit the much wider gamut of visual and textual cues to achieve alignment. Concretely, those methods with i
Externí odkaz:
http://arxiv.org/abs/2401.00701
Autor:
Tian, Kaibin, Zhao, Ruixiang, Hu, Hu, Xie, Runquan, Lian, Fengzong, Kang, Zhanhui, Li, Xirong
For text-to-video retrieval (T2VR), which aims to retrieve unlabeled videos by ad-hoc textual queries, CLIP-based methods are dominating. Compared to CLIP4Clip which is efficient and compact, the state-of-the-art models tend to compute video-text sim
Externí odkaz:
http://arxiv.org/abs/2308.01217
Autor:
Chen, Aozhu, Wang, Ziyuan, Dong, Chengbo, Tian, Kaibin, Zhao, Ruixiang, Liang, Xun, Kang, Zhanhui, Li, Xirong
This paper introduces ChinaOpen, a dataset sourced from Bilibili, a popular Chinese video-sharing website, for open-world multimodal learning. While the state-of-the-art multimodal learning networks have shown impressive performance in automated vide
Externí odkaz:
http://arxiv.org/abs/2305.05880
We summarize our TRECVID 2022 Ad-hoc Video Search (AVS) experiments. Our solution is built with two new techniques, namely Lightweight Attentional Feature Fusion (LAFF) for combining diverse visual / textual features and Bidirectional Negation Learni
Externí odkaz:
http://arxiv.org/abs/2211.15039
Distracted driving causes thousands of deaths per year, and how to apply deep-learning methods to prevent these tragedies has become a crucial problem. In Track3 of the 6th AI City Challenge, researchers provide a high-quality video dataset with dens
Externí odkaz:
http://arxiv.org/abs/2207.02042
Unsupervised Domain Adaptation (UDA) essentially trades a model's performance on a source domain for improving its performance on a target domain. To resolve the issue, Unsupervised Domain Expansion (UDE) has been proposed recently. UDE tries to adap
Externí odkaz:
http://arxiv.org/abs/2204.01210
Expanding visual categorization into a novel domain without the need of extra annotation has been a long-term interest for multimedia intelligence. Previously, this challenge has been approached by unsupervised domain adaptation (UDA). Given labeled
Externí odkaz:
http://arxiv.org/abs/2104.00233
Akademický článek
Tento výsledek nelze pro nepřihlášené uživatele zobrazit.
K zobrazení výsledku je třeba se přihlásit.
K zobrazení výsledku je třeba se přihlásit.
Akademický článek
Tento výsledek nelze pro nepřihlášené uživatele zobrazit.
K zobrazení výsledku je třeba se přihlásit.
K zobrazení výsledku je třeba se přihlásit.
Akademický článek
Tento výsledek nelze pro nepřihlášené uživatele zobrazit.
K zobrazení výsledku je třeba se přihlásit.
K zobrazení výsledku je třeba se přihlásit.