Zobrazeno 1 - 10
of 16
pro vyhledávání: '"Wahid, Noorhaniza"'
Publikováno v:
Journal of Information and Communication Technology, 20(1), 21-39, 2021
Activation function is a key component in deep learning that performs non-linear mappings between the inputs and outputs. Rectified Linear Unit (ReLU) has been the most popular activation function across the deep learning community. However, ReLU con
Externí odkaz:
http://arxiv.org/abs/2011.03155
Publikováno v:
International Journal of Advances in Intelligent Informatics, 4(2), 76-86
Activation functions are essential for deep learning methods to learn and perform complex tasks such as image classification. Rectified Linear Unit (ReLU) has been widely used and become the default activation function across the deep learning commun
Externí odkaz:
http://arxiv.org/abs/1812.06247
Autor:
Chung, Yuk Ying, Wahid, Noorhaniza
Publikováno v:
In Applied Soft Computing Journal September 2012 12(9):3014-3022
Akademický článek
Tento výsledek nelze pro nepřihlášené uživatele zobrazit.
K zobrazení výsledku je třeba se přihlásit.
K zobrazení výsledku je třeba se přihlásit.
Akademický článek
Tento výsledek nelze pro nepřihlášené uživatele zobrazit.
K zobrazení výsledku je třeba se přihlásit.
K zobrazení výsledku je třeba se přihlásit.
Publikováno v:
Recent Advances on Soft Computing & Data Mining (9783319512792); 2017, p71-80, 10p
Publikováno v:
International Journal of Advances in Intelligent Informatics; Jul2018, Vol. 4 Issue 2, p76-86, 11p
Publikováno v:
ACM International Conference Proceeding Series; 7/13/2016, p1-5, 5p
Autor:
Kohshelan, Wahid, Noorhaniza
Publikováno v:
Recent Advances on Soft Computing & Data Mining; 2014, p507-516, 10p
Autor:
Chieng, Hock Hung, Wahid, Noorhaniza
Publikováno v:
Recent Advances on Soft Computing & Data Mining; 2014, p89-97, 9p