Zobrazeno 1 - 10
of 9 668
pro vyhledávání: '"Pruning methods"'
Autor:
Kiefer, Nicholas, Weyrauch, Arvid, Öz, Muhammed, Streit, Achim, Götz, Markus, Debus, Charlotte
The current landscape in time-series forecasting is dominated by Transformer-based models. Their high parameter count and corresponding demand in computational resources pose a challenge to real-world deployment, especially for commercial and scienti
Externí odkaz:
http://arxiv.org/abs/2412.12883
Autor:
Piras, Giorgio, Pintor, Maura, Demontis, Ambra, Biggio, Battista, Giacinto, Giorgio, Roli, Fabio
Recent work has proposed neural network pruning techniques to reduce the size of a network while preserving robustness against adversarial examples, i.e., well-crafted inputs inducing a misclassification. These methods, which we refer to as adversari
Externí odkaz:
http://arxiv.org/abs/2409.01249
Akademický článek
Tento výsledek nelze pro nepřihlášené uživatele zobrazit.
K zobrazení výsledku je třeba se přihlásit.
K zobrazení výsledku je třeba se přihlásit.
Akademický článek
Tento výsledek nelze pro nepřihlášené uživatele zobrazit.
K zobrazení výsledku je třeba se přihlásit.
K zobrazení výsledku je třeba se přihlásit.
Autor:
NARBAYEVA, Abadan1, AKÇA, Yaşar1 akcanut@gmail.com
Publikováno v:
Journal of Agricultural Faculty of Gaziosmanpasa University / Gazi Osman Pasa Üniversitesi Ziraat Fakültesi Dergisi. nis2024, Vol. 41 Issue 1, p25-32. 8p.
Akademický článek
Tento výsledek nelze pro nepřihlášené uživatele zobrazit.
K zobrazení výsledku je třeba se přihlásit.
K zobrazení výsledku je třeba se přihlásit.
In this paper, we explore the performance of different pruning methods in the context of the lottery ticket hypothesis. We compare the performance of L1 unstructured pruning, Fisher pruning, and random pruning on different network architectures and p
Externí odkaz:
http://arxiv.org/abs/2303.15479
Publikováno v:
In Information Systems February 2024 120
Akademický článek
Tento výsledek nelze pro nepřihlášené uživatele zobrazit.
K zobrazení výsledku je třeba se přihlásit.
K zobrazení výsledku je třeba se přihlásit.
Autor:
Kurtic, Eldar, Alistarh, Dan
We revisit the performance of the classic gradual magnitude pruning (GMP) baseline for large language models, focusing on the classic BERT benchmark on various popular tasks. Despite existing evidence in the literature that GMP performs poorly, we sh
Externí odkaz:
http://arxiv.org/abs/2210.06384