Zobrazeno 1 - 10
of 65 724
pro vyhledávání: '"Per Block"'
Pretraining transformers are generally time-consuming. Fully quantized training (FQT) is a promising approach to speed up pretraining. However, most FQT methods adopt a quantize-compute-dequantize procedure, which often leads to suboptimal speedup an
Externí odkaz:
http://arxiv.org/abs/2403.12422
Publikováno v:
In Journal of Air Transport Management August 2022 103
Applications involving dictionary learning, non-negative matrix factorization, subspace clustering, and parallel factor tensor decomposition tasks motivate well algorithms for per-block-convex and non-smooth optimization problems. By leveraging the s
Externí odkaz:
http://arxiv.org/abs/1501.07315
Conference
Tento výsledek nelze pro nepřihlášené uživatele zobrazit.
K zobrazení výsledku je třeba se přihlásit.
K zobrazení výsledku je třeba se přihlásit.
Autor:
Gholampour, Iman, Khosravi, Khashayar
Publikováno v:
In Signal Processing March 2015 108:206-219
Akademický článek
Tento výsledek nelze pro nepřihlášené uživatele zobrazit.
K zobrazení výsledku je třeba se přihlásit.
K zobrazení výsledku je třeba se přihlásit.
Autor:
Gupta, Rahul Kumar1, Bhowmik, Arpan1 arpan.stat@gmail.com, Jaggi, Seema1, Harun, Mohd.1, Varghese, Cini1, Datta, Anindita1, Kumar, Devendra1
Publikováno v:
Quarterly Research Journal of Plant & Animal Sciences / Bhartiya Krishi Anusandhan Patrika. Sep-Dec2019, Vol. 34 Issue 3/4, p245-247. 3p.
Autor:
Katarzyna Koptyra, Marek R. Ogiela
Publikováno v:
IEEE INFOCOM 2022 - IEEE Conference on Computer Communications Workshops (INFOCOM WKSHPS).
Autor:
Mihnea Horia Vrejoiu
Publikováno v:
Studies in Informatics and Control. 29:189-203