Zobrazeno 1 - 6
of 6
pro vyhledávání: '"Gebhardt, Evan"'
Recent advances in deep neural networks (DNNs) owe their success to training algorithms that use backpropagation and gradient-descent. Backpropagation, while highly effective on von Neumann architectures, becomes inefficient when scaling to large net
Externí odkaz:
http://arxiv.org/abs/1903.02083
Akademický článek
Tento výsledek nelze pro nepřihlášené uživatele zobrazit.
K zobrazení výsledku je třeba se přihlásit.
K zobrazení výsledku je třeba se přihlásit.
Akademický článek
Tento výsledek nelze pro nepřihlášené uživatele zobrazit.
K zobrazení výsledku je třeba se přihlásit.
K zobrazení výsledku je třeba se přihlásit.
Akademický článek
Tento výsledek nelze pro nepřihlášené uživatele zobrazit.
K zobrazení výsledku je třeba se přihlásit.
K zobrazení výsledku je třeba se přihlásit.
Publikováno v:
Proceedings of SPIE; May 2016, Vol. 9829 Issue: 1 p98290Z-98290Z-11, 9730722p
Autor:
Crafton B; School of Electrical and Computer Engineering, Georgia Institute of Technology, Atlanta, GA, United States., Parihar A; School of Electrical and Computer Engineering, Georgia Institute of Technology, Atlanta, GA, United States., Gebhardt E; School of Electrical and Computer Engineering, Georgia Institute of Technology, Atlanta, GA, United States., Raychowdhury A; School of Electrical and Computer Engineering, Georgia Institute of Technology, Atlanta, GA, United States.
Publikováno v:
Frontiers in neuroscience [Front Neurosci] 2019 May 24; Vol. 13, pp. 525. Date of Electronic Publication: 2019 May 24 (Print Publication: 2019).