Zobrazeno 1 - 8
of 8
pro vyhledávání: '"Park, Su Inn"'
Transformers have excelled in many tasks including vision. However, efficient deployment of transformer models in low-latency or high-throughput applications is hindered by the computation in the attention mechanism which involves expensive operation
Externí odkaz:
http://arxiv.org/abs/2406.07488
Transformer models have shown great potential in computer vision, following their success in language tasks. Swin Transformer is one of them that outperforms convolution-based architectures in terms of accuracy, while improving efficiency when compar
Externí odkaz:
http://arxiv.org/abs/2306.13776
Transformer and its variants have shown state-of-the-art results in many vision tasks recently, ranging from image classification to dense prediction. Despite of their success, limited work has been reported on improving the model efficiency for depl
Externí odkaz:
http://arxiv.org/abs/2204.13791
Autor:
Park, Su Inn1,2, Bisgin, Halil2, Ding, Hongjian3, Semey, Howard G.3, Langley, Darryl A.3, Tong, Weida2, Xu, Joshua2 zhihua.xu@fda.hhs.gov
Publikováno v:
PLoS ONE. 6/24/2016, Vol. 11 Issue 6, p1-22. 22p.
Akademický článek
Tento výsledek nelze pro nepřihlášené uživatele zobrazit.
K zobrazení výsledku je třeba se přihlásit.
K zobrazení výsledku je třeba se přihlásit.
Akademický článek
Tento výsledek nelze pro nepřihlášené uživatele zobrazit.
K zobrazení výsledku je třeba se přihlásit.
K zobrazení výsledku je třeba se přihlásit.
Autor:
Park, Su Inn, Shipman, Frank
Publikováno v:
JCDL/DL: International Conference on Digital Libraries; Sep2014, p97-106, 10p
Autor:
Park, Su Inn, Bisgin, Halil, Ding, Hongjian, Semey, Howard G., Langley, Darryl A., Tong, Weida, Xu, Joshua
Publikováno v:
PLoS ONE. 9/7/2016, Vol. 11 Issue 9, p1-1. 1p.