Zobrazeno 1 - 2
of 2
pro vyhledávání: '"Ahn, Hong Eun"'
Neural language models (LMs) are vulnerable to training data extraction attacks due to data memorization. This paper introduces a novel attack scenario wherein an attacker adversarially fine-tunes pre-trained LMs to amplify the exposure of the origin
Externí odkaz:
http://arxiv.org/abs/2402.12189
Akademický článek
Tento výsledek nelze pro nepřihlášené uživatele zobrazit.
K zobrazení výsledku je třeba se přihlásit.
K zobrazení výsledku je třeba se přihlásit.