Zobrazeno 1 - 10
of 30
pro vyhledávání: '"Ding, Kangyi"'
Deep learning models are vulnerable to backdoor attacks, where attackers inject malicious behavior through data poisoning and later exploit triggers to manipulate deployed models. To improve the stealth and effectiveness of backdoors, prior studies h
Externí odkaz:
http://arxiv.org/abs/2304.10985
Akademický článek
Tento výsledek nelze pro nepřihlášené uživatele zobrazit.
K zobrazení výsledku je třeba se přihlásit.
K zobrazení výsledku je třeba se přihlásit.
Akademický článek
Tento výsledek nelze pro nepřihlášené uživatele zobrazit.
K zobrazení výsledku je třeba se přihlásit.
K zobrazení výsledku je třeba se přihlásit.
Akademický článek
Tento výsledek nelze pro nepřihlášené uživatele zobrazit.
K zobrazení výsledku je třeba se přihlásit.
K zobrazení výsledku je třeba se přihlásit.
Publikováno v:
In Knowledge-Based Systems 17 August 2021 226
Autor:
Ding, Kangyi1,2 (AUTHOR), Hu, Teng2 (AUTHOR), Niu, Weina1 (AUTHOR) niuweina1@126.com, Liu, Xiaolei2 (AUTHOR), He, Junpeng1 (AUTHOR), Yin, Mingyong2 (AUTHOR), Zhang, Xiaosong1 (AUTHOR)
Publikováno v:
Sensors (14248220). Sep2022, Vol. 22 Issue 17, p6497. 18p.
As deep neural networks continue to be used in critical domains, concerns over their security have emerged. Deep learning models are vulnerable to backdoor attacks due to the lack of transparency. A poisoned backdoor model may perform normally in rou
Externí odkaz:
https://explore.openaire.eu/search/publication?articleId=doi_dedup___::4fe9b8429a0870cf336dded2bdec5d8a
http://arxiv.org/abs/2304.10985
http://arxiv.org/abs/2304.10985
Akademický článek
Tento výsledek nelze pro nepřihlášené uživatele zobrazit.
K zobrazení výsledku je třeba se přihlásit.
K zobrazení výsledku je třeba se přihlásit.
Publikováno v:
Computer Journal; Mar2023, Vol. 66 Issue 3, p540-553, 14p
Akademický článek
Tento výsledek nelze pro nepřihlášené uživatele zobrazit.
K zobrazení výsledku je třeba se přihlásit.
K zobrazení výsledku je třeba se přihlásit.