Zobrazeno 1 - 8
of 8
pro vyhledávání: '"Takeishi, Yoshinari"'
To investigate the theoretical foundations of deep learning from the viewpoint of the minimum description length (MDL) principle, we analyse risk bounds of MDL estimators based on two-stage codes for simple two-layers neural networks (NNs) with ReLU
Externí odkaz:
http://arxiv.org/abs/2407.03854
We argue the Fisher information matrix (FIM) of one hidden layer networks with the ReLU activation function. For a network, let $W$ denote the $d \times p$ weight matrix from the $d$-dimensional input to the hidden layer consisting of $p$ neurons, an
Externí odkaz:
http://arxiv.org/abs/2111.15256
Publikováno v:
In Neural Networks July 2023 164:691-706
For the additive white Gaussian noise channel with average power constraint, sparse superposition codes, proposed by Barron and Joseph in 2010, achieve the capacity. While the codewords of the original sparse superposition codes are made with a dicti
Externí odkaz:
http://arxiv.org/abs/1801.02930
Akademický článek
Tento výsledek nelze pro nepřihlášené uživatele zobrazit.
K zobrazení výsledku je třeba se přihlásit.
K zobrazení výsledku je třeba se přihlásit.
Publikováno v:
Japanese Journal of Statistics & Data Science; Dec2019, Vol. 2 Issue 2, p591-613, 23p
Akademický článek
Tento výsledek nelze pro nepřihlášené uživatele zobrazit.
K zobrazení výsledku je třeba se přihlásit.
K zobrazení výsledku je třeba se přihlásit.
Publikováno v:
2013 IEEE International Symposium on Information Theory; 2013, p1396-1400, 5p