Zobrazeno 1 - 4
of 4
pro vyhledávání: '"Chieng, Hock Hung"'
Publikováno v:
Journal of Information and Communication Technology, 20(1), 21-39, 2021
Activation function is a key component in deep learning that performs non-linear mappings between the inputs and outputs. Rectified Linear Unit (ReLU) has been the most popular activation function across the deep learning community. However, ReLU con
Externí odkaz:
http://arxiv.org/abs/2011.03155
Publikováno v:
International Journal of Advances in Intelligent Informatics, 4(2), 76-86
Activation functions are essential for deep learning methods to learn and perform complex tasks such as image classification. Rectified Linear Unit (ReLU) has been widely used and become the default activation function across the deep learning commun
Externí odkaz:
http://arxiv.org/abs/1812.06247
Akademický článek
Tento výsledek nelze pro nepřihlášené uživatele zobrazit.
K zobrazení výsledku je třeba se přihlásit.
K zobrazení výsledku je třeba se přihlásit.
Autor:
Chieng, Hock Hung, Wahid, Noorhaniza
Publikováno v:
Recent Advances on Soft Computing & Data Mining; 2014, p89-97, 9p