Zobrazeno 1 - 10
of 38
pro vyhledávání: '"Attack transferability"'
Publikováno v:
International Journal of Computational Intelligence Systems, Vol 17, Iss 1, Pp 1-16 (2024)
Abstract Adversarial patches, a type of adversarial example, pose serious security threats to deep neural networks (DNNs) by inducing erroneous outputs. Existing gradient stabilization methods aim to stabilize the optimization direction of adversaria
Externí odkaz:
https://doaj.org/article/19206d3a309a44ea8e8093627c459d08
Publikováno v:
Complex & Intelligent Systems, Vol 10, Iss 5, Pp 6825-6837 (2024)
Abstract Significant structural differences in DNN-based object detectors hinders the transferability of adversarial attacks. Studies show that intermediate features extracted by the detector contain more model-independent information, and disrupting
Externí odkaz:
https://doaj.org/article/372584eec4da4ccdafc23686cbfd546c
Publikováno v:
International Journal of Computational Intelligence Systems, Vol 16, Iss 1, Pp 1-19 (2023)
Abstract Face recognition systems are susceptible to adversarial attacks, where adversarial facial images are generated without awareness of the intrinsic attributes of the images in existing works. They change only a single attribute indiscriminatel
Externí odkaz:
https://doaj.org/article/e0df14e15a724514aa050fbc230cb4ab
Publikováno v:
Journal of King Saud University: Computer and Information Sciences, Vol 36, Iss 1, Pp 101901- (2024)
Deep neural networks (DNNs) are vulnerable to adversarial attacks, which can cause security risks in computer information systems. Feature disruption attacks, as a typical form of adversarial attack, optimize adversarial examples by disrupting the in
Externí odkaz:
https://doaj.org/article/ee5d1a332b0c486fb70b2303e70c0df0
Akademický článek
Tento výsledek nelze pro nepřihlášené uživatele zobrazit.
K zobrazení výsledku je třeba se přihlásit.
K zobrazení výsledku je třeba se přihlásit.
Akademický článek
Tento výsledek nelze pro nepřihlášené uživatele zobrazit.
K zobrazení výsledku je třeba se přihlásit.
K zobrazení výsledku je třeba se přihlásit.
Publikováno v:
EURASIP Journal on Information Security, Vol 2021, Iss 1, Pp 1-10 (2021)
Abstract Recently, adversarial attacks have drawn the community’s attention as an effective tool to degrade the accuracy of neural networks. However, their actual usage in the world is limited. The main reason is that real-world machine learning sy
Externí odkaz:
https://doaj.org/article/4b5349da5178433c84d6cb0ba7e55d80
Akademický článek
Tento výsledek nelze pro nepřihlášené uživatele zobrazit.
K zobrazení výsledku je třeba se přihlásit.
K zobrazení výsledku je třeba se přihlásit.
Akademický článek
Tento výsledek nelze pro nepřihlášené uživatele zobrazit.
K zobrazení výsledku je třeba se přihlásit.
K zobrazení výsledku je třeba se přihlásit.
Akademický článek
Tento výsledek nelze pro nepřihlášené uživatele zobrazit.
K zobrazení výsledku je třeba se přihlásit.
K zobrazení výsledku je třeba se přihlásit.