Zobrazeno 1 - 7
of 7
pro vyhledávání: '"Daruwalla, Kyle"'
Publikováno v:
Neural Information Processing Systems 34 (2024)
A natural strategy for continual learning is to weigh a Bayesian ensemble of fixed functions. This suggests that if a (single) neural network could be interpreted as an ensemble, one could design effective algorithms that learn without forgetting. To
Externí odkaz:
http://arxiv.org/abs/2408.17394
Autor:
Daruwalla, Kyle, Lipasti, Mikko
Artificial neural networks have successfully tackled a large variety of problems by training extremely deep networks via back-propagation. A direct application of back-propagation to spiking neural networks contains biologically implausible component
Externí odkaz:
http://arxiv.org/abs/2111.13187
Deep learning's success has been attributed to the training of large, overparameterized models on massive amounts of data. As this trend continues, model training has become prohibitively costly, requiring access to powerful computing systems to trai
Externí odkaz:
http://arxiv.org/abs/2111.12621
Akademický článek
Tento výsledek nelze pro nepřihlášené uživatele zobrazit.
K zobrazení výsledku je třeba se přihlásit.
K zobrazení výsledku je třeba se přihlásit.
Akademický článek
Tento výsledek nelze pro nepřihlášené uživatele zobrazit.
K zobrazení výsledku je třeba se přihlásit.
K zobrazení výsledku je třeba se přihlásit.
Akademický článek
Tento výsledek nelze pro nepřihlášené uživatele zobrazit.
K zobrazení výsledku je třeba se přihlásit.
K zobrazení výsledku je třeba se přihlásit.
Publikováno v:
ACM Transactions on Architecture & Code Optimization; Jun2020, Vol. 16 Issue 4, p1-25, 25p