Zobrazeno 1 - 3
of 3
pro vyhledávání: '"Ahn, Hong Eun"'
Neural language models (LMs) are vulnerable to training data extraction attacks due to data memorization. This paper introduces a novel attack scenario wherein an attacker adversarially fine-tunes pre-trained LMs to amplify the exposure of the origin
Externí odkaz:
http://arxiv.org/abs/2402.12189
Akademický článek
Tento výsledek nelze pro nepřihlášené uživatele zobrazit.
K zobrazení výsledku je třeba se přihlásit.
K zobrazení výsledku je třeba se přihlásit.
Autor:
Howon Kim, Jonghee Youn
This book constitutes the revised selected papers from the 24th International Conference on Information Security Applications, WISA 2023, held in Jeju Island, South Korea, during August 23–25, 2023.The 25 papers included in this book were carefull