Fairness und Qualität algorithmischer Entscheidungen
Autor: | Zweig, Katharina A., Krafft, Tobias D. |
---|---|
Přispěvatelé: | Mohabbat Kar, Resa, Thapa, Basanta E. P., Parycek, Peter, Fraunhofer-Institut für Offene Kommunikationssysteme FOKUS, Kompetenzzentrum Öffentliche IT (ÖFIT) |
Rok vydání: | 2018 |
Předmět: |
Technik
Technologie Naturwissenschaften Technology (Applied sciences) Science Technikfolgenabschätzung Naturwissenschaften Technik(wissenschaften) angewandte Wissenschaften Technology Assessment Natural Science and Engineering Applied Sciences Algorithmus Entscheidungsfindung Verhaltensprognose Diskriminierung Fairness Bewertung algorithm decision making behavior prognosis discrimination fairness evaluation 50200 20800 |
Zdroj: | (Un)berechenbar? Algorithmen und Automatisierung in Staat und Gesellschaft, 204-227 |
Druh dokumentu: | Sammelwerksbeitrag<br />collection article |
Popis: | Algorithmische Entscheidungssysteme werden immer häufiger zur Klassifikation und Prognose von menschlichem Verhalten herangezogen. Hierbei gibt es einen breiten Diskurs um die Messung der Entscheidungsqualität solcher Systeme (Qualität) und die mögliche Diskriminierung von Teilgruppen (Fairness), welchen sich dieser Artikel widmet. Wir zeigen auf, dass es miteinander unvereinbare Fairnessmaße gibt, wobei wir auf zwei im Speziellen eingehen. Für sich allein betrachtet sind die zwei Maße zwar logisch und haben je nach Anwendungsgebiet auch ihre Daseinsberechtigung, jedoch können nicht beide zugleich erfüllt werden. Somit zeigt sich, dass gerade im Einsatz algorithmischer Entscheidungssysteme im Bereich der öffentlichen IT aufgrund ihres großen Wirkungsbereichs auf das Gemein-wohl höchste Vorsicht bei der Wahl solcher Maßstäbe herrschen muss. Wird im Anwendungsfall die Erfüllung sich widersprechender Maßstäbe gefordert, so muss darüber nachgedacht werden, ob eine algorithmische Lösung an dieser Stelle überhaupt eingesetzt werden darf. |
Databáze: | SSOAR – Social Science Open Access Repository |
Externí odkaz: |