Zobrazeno 1 - 5
of 5
pro vyhledávání: '"Tindall, Lucas"'
Autor:
Lomnitz, Michael, Lopatina, Nina, Gamble, Paul, Hampel-Arias, Zigfried, Tindall, Lucas, Mejia, Felipe A., Barrios, Maria Alejandra
It is critical to understand the privacy and robustness vulnerabilities of machine learning models, as their implementation expands in scope. In membership inference attacks, adversaries can determine whether a particular set of data was used in trai
Externí odkaz:
http://arxiv.org/abs/1911.01888
Autor:
Mejia, Felipe A., Gamble, Paul, Hampel-Arias, Zigfried, Lomnitz, Michael, Lopatina, Nina, Tindall, Lucas, Barrios, Maria Alejandra
Adversarial training was introduced as a way to improve the robustness of deep learning models to adversarial attacks. This training method improves robustness against adversarial attacks, but increases the models vulnerability to privacy attacks. In
Externí odkaz:
http://arxiv.org/abs/1906.06449
Akademický článek
Tento výsledek nelze pro nepřihlášené uživatele zobrazit.
K zobrazení výsledku je třeba se přihlásit.
K zobrazení výsledku je třeba se přihlásit.
Autor:
Haberl, Matthias G, Churas, Christopher, Tindall, Lucas, Boassa, Daniela, Phan, Sébastien, Bushong, Eric A, Madany, Matthew, Akay, Raffi, Deerinck, Thomas J, Peltier, Steven T, Ellisman, Mark H
Publikováno v:
Nature methods, vol 15, iss 9
As biomedical imaging datasets expand, deep neural networks are considered vital for image processing, yet community access is still limited by setting up complex computational environments and availability of high-performance computing resources. We
Externí odkaz:
https://explore.openaire.eu/search/publication?articleId=od_______325::68e8381037f1aa6c13b9454e817b0c9a
https://escholarship.org/uc/item/701117ds
https://escholarship.org/uc/item/701117ds
Akademický článek
Tento výsledek nelze pro nepřihlášené uživatele zobrazit.
K zobrazení výsledku je třeba se přihlásit.
K zobrazení výsledku je třeba se přihlásit.