Zobrazeno 1 - 10
of 63
pro vyhledávání: '"defense method"'
Publikováno v:
IEEE Access, Vol 12, Pp 5345-5356 (2024)
Deep neural networks (DNNs) provide excellent performance in image recognition, speech recognition, video recognition, and pattern analysis. However, they are vulnerable to adversarial example attacks. An adversarial example, which is input to which
Externí odkaz:
https://doaj.org/article/1c5ad8d8a490421dbba836958edb9d23
Autor:
Mingde Wang, Zhijing Liu
Publikováno v:
Applied Sciences, Vol 14, Iss 19, p 8636 (2024)
Machine learning systems, particularly in the domain of image recognition, are susceptible to adversarial perturbations applied to input data. These perturbations, while imperceptible to humans, have the capacity to easily deceive deep learning class
Externí odkaz:
https://doaj.org/article/db1b6a593a8044cb8dd28e6244a452a7
Autor:
Mingde Wang, Zhijing Liu
Publikováno v:
Applied Sciences, Vol 14, Iss 18, p 8119 (2024)
The security and privacy of a system are urgent issues in achieving secure and efficient learning-based systems. Recent studies have shown that these systems are susceptible to subtle adversarial perturbations applied to inputs. Although these pertur
Externí odkaz:
https://doaj.org/article/26c700aca84c49ec876d9047505ddca0
Akademický článek
Tento výsledek nelze pro nepřihlášené uživatele zobrazit.
K zobrazení výsledku je třeba se přihlásit.
K zobrazení výsledku je třeba se přihlásit.
Akademický článek
Tento výsledek nelze pro nepřihlášené uživatele zobrazit.
K zobrazení výsledku je třeba se přihlásit.
K zobrazení výsledku je třeba se přihlásit.
Akademický článek
Tento výsledek nelze pro nepřihlášené uživatele zobrazit.
K zobrazení výsledku je třeba se přihlásit.
K zobrazení výsledku je třeba se přihlásit.
Akademický článek
Tento výsledek nelze pro nepřihlášené uživatele zobrazit.
K zobrazení výsledku je třeba se přihlásit.
K zobrazení výsledku je třeba se přihlásit.
Autor:
Hyun Kwon
Publikováno v:
IEEE Access, Vol 8, Pp 191049-191056 (2020)
A backdoor attack implies that deep neural networks misrecognize data that have a specific trigger by additionally training the malicious training data, including the specific trigger to the deep neural network model. In this method, the deep neural
Externí odkaz:
https://doaj.org/article/2d94c63c00ba4f4b8b143a8c33024653
Akademický článek
Tento výsledek nelze pro nepřihlášené uživatele zobrazit.
K zobrazení výsledku je třeba se přihlásit.
K zobrazení výsledku je třeba se přihlásit.
Akademický článek
Tento výsledek nelze pro nepřihlášené uživatele zobrazit.
K zobrazení výsledku je třeba se přihlásit.
K zobrazení výsledku je třeba se přihlásit.