Zobrazeno 1 - 4
of 4
pro vyhledávání: '"Hou, Xiuquan"'
This paper presents a general scheme for enhancing the convergence and performance of DETR (DEtection TRansformer). We investigate the slow convergence problem in transformers from a new perspective, suggesting that it arises from the self-attention
Externí odkaz:
http://arxiv.org/abs/2407.11699
DETR-like methods have significantly increased detection performance in an end-to-end manner. The mainstream two-stage frameworks of them perform dense self-attention and select a fraction of queries for sparse cross-attention, which is proven effect
Externí odkaz:
http://arxiv.org/abs/2403.16131
Publikováno v:
In Pattern Recognition August 2023 140
Akademický článek
Tento výsledek nelze pro nepřihlášené uživatele zobrazit.
K zobrazení výsledku je třeba se přihlásit.
K zobrazení výsledku je třeba se přihlásit.