Privatsphäre und Maschinelles Lernen
Autor: | Franziska Boenisch |
---|---|
Rok vydání: | 2021 |
Předmět: | |
Zdroj: | Datenschutz und Datensicherheit - DuD. 45:448-452 |
ISSN: | 1862-2607 1614-0702 |
DOI: | 10.1007/s11623-021-1469-3 |
Popis: | Wir alle generieren taglich grose Mengen an potenziell sensiblen Daten: Worter, die wir auf unseren Smartphones eingeben, Produkte, die wir online kaufen, Gesundheitsdaten, die wir in Apps erfassen. All diese Daten haben eins gemeinsam – sie werden an verschiedensten Stellen in Machine-Learning-Modelle (ML-Modelle) eingespeist. Mithilfe der Zusammenhange, die sich in diesen ,,Trainingsdaten‘‘ finden lassen, konnen die Modelle immer prazisere Voraussagen hinsichtlich unseres Verhaltens oder anderer Fragestellungen treffen. Lange Zeit bestand die Annahme, dass dieser Prozess eine Einbahnstrase ist: Wegen der komplexen Datenverarbeitung in ML-Modellen kann man zwar Trainingsdaten einspeisen, sie aber spater nicht wiederherstellen. In den letzten Jahren wurde jedoch gezeigt, dass anhand gezielter Attacken gegen trainierte Modelle Ruckschlusse auf die ursprunglichen Daten gezogen werden konnen. Der Schutz der Privatsphare in ML-Modellen ist daher, insbesondere vor dem Hintergrund der Anforderungen der Datenschutz- Grundverordnung, ein Thema von groser Bedeutung. Er kann und muss durch den Einsatz geeigneter Methoden, wie z.B. Differential Privacy, aktiv gestarkt werden. |
Databáze: | OpenAIRE |
Externí odkaz: |