schließen

DatDA – Datenbasierte Diskriminierung in der Arbeitswelt.

Projektleitung:

  • Assoz. Univ.-Prof.in Dr.in Elisabeth Greif
    Institut für Legal Gender Studies
  • Dr.in Miriam Kullmann
    WU Wien

Das von der AK Wien für eine Laufzeit von zwei Jahren mit 102.000 € geförderte Forschungsprojekt setzt sich mit dem Einsatz automationsunterstützter Datenverarbeitung im Bereich der Personalgewinnung und der Plattformökonomie auseinander. Die Arbeitswelt wird immer stärker von Digitalisierung und technologischem Fortschritt geprägt. Dabei gewinnt der Einsatz algorithmische Entscheidungssysteme zunehmend an Bedeutung. Dies gilt vor allem für die Personalgewinnung und die Plattformökonomie: E-Recruiting-Tools filtern aus einer großen Anzahl an Bewerber*innen jene heraus, die den jeweiligen Stellenprofilen am besten entsprechen; in der Plattformökonomie vermittelt Matching Software Angebot und Nachfrage im Bereich von Dienstleistungen aufgrund digitaler Bewertungssysteme. Datenbasierte Entscheidungssysteme werden häufig als Garantie für bessere, vor allem für weniger vorurteilsgeprägte Entscheidungen angesehen. Tatsächlich lässt sich durch den Einsatz automationsunterstützter Prozesse allein Diskriminierung jedoch nicht verhindern: Algorithmische Entscheidungssysteme schreiben bestehende Ungleichheiten oft fort oder verstärken sie sogar.

Ziel des Projekts ist es, auf Basis unionsrechtlicher und menschenrechtlicher Regelungen Kriterien für eine diskriminierungsfreie Ausgestaltung algorithmischer Entscheidungsverfahren zu entwickeln. Wesentliche Bedeutung kommt in diesem Zusammenhang auch zentralen Elementen der Procedural Justice zu, wie etwa Transparenz, Partizipation oder Fairness. Auf dieser Grundlage soll ein Framework „Faire Algorithmen in der Arbeitswelt“ erstellt werden, das als Guideline für Software-Entwickler*innen dient. Software-Entwickler*innen wird es dadurch ermöglicht, automationsunterstützte Entscheidungsprozesse in der Arbeitswelt so auszugestalten, dass ihr Einsatz nicht zu diskriminierenden Ergebnissen führt. Mit Hilfe dieser Guideline lassen sich algorithmische Entscheidungen außerdem auch im Nachhinein auf etwaige Diskriminierung überprüfen.

„Algorithmische Entscheidungssysteme stellen das Recht vor große Herausforderungen – Elemente der Procedural Justice können die damit verbundenen Diskriminierungsrisiken verringern.“
Assoz. Univ.-Prof.in Dr.in Elisabeth Greif