Zobrazeno 1 - 2
of 2
pro vyhledávání: '"AI hardware security"'
Publikováno v:
Information, Vol 14, Iss 9, p 516 (2023)
Universal adversarial perturbations are image-agnostic and model-independent noise that, when added to any image, can mislead the trained deep convolutional neural networks into the wrong prediction. Since these universal adversarial perturbations ca
Externí odkaz:
https://doaj.org/article/62973fb52f7d4e2cbcaf3b9664481488
Akademický článek
Tento výsledek nelze pro nepřihlášené uživatele zobrazit.
K zobrazení výsledku je třeba se přihlásit.
K zobrazení výsledku je třeba se přihlásit.