schließen

Studie: Künstliche Suchmaschinen-Intelligenz besonders sexistisch

Forscher*innen der Johannes Kepler Universität Linz haben die Vorurteile der Such-KIs erstmals genau gemessen.

Navid Rekab-Saz vom Institut für Computational Perception

Kennt uns die KI besser als wir selbst? Moderne Algorithmen bewerten immer öfter Menschen, etwa beim Arbeitsmarktservice. Das Problem: Auch Künstliche Intelligenz muss auf Daten zugreifen, die von Menschen stammen – und oftmals mit Vorurteilen belastet sind. Bekannt wurde z.B. eine Microsoft-KI, die den Holocaust leugnete.

Navid Rekab-Saz und Markus Schedl vom Institut für Computational Perception haben untersucht, wie stark sich Vorurteile auf die Ergebnisse von Suchmaschinen auswirken.

„Zum Teil sind geschlechtsspezifische Ergebnisse ja gewünscht“, sagt Rekab-Saz. Sucht man auf Google nach Herrschern des Römischen Reichs sind die Ergebnisse naturgemäß männlich geprägt: Kaiser wurden damals eben nur Männer. Problematisch wird es, wenn man etwa den Begriff „Nurse“ eingibt: Das englische Wort bedeutet sowohl Krankenpfleger als auch Krankenpflegerin. Bei den ausgeworfenen Bildern erkennt man: Männer kommen hier erst weit hinten vor. „Der Begriff Nurse wird, obwohl geschlechtsneutral, stark weiblich genutzt“, so der JKU Forscher. Umgekehrt bei CEO, hier findet man beinahe nur Bilder von Männern.

In ihrer Studie fanden die Wissenschaftler heraus, dass der Einsatz von Deep Learning, mit dem viele KIs arbeiten, diesen Effekt noch verstärkt. Moderne Suchmaschinen suchen nicht mehr nur das Wort selbst (also Nurse oder CEO), sondern auch ähnliche Wörter, Themenbereiche und Begriffe – beziehen also zum Beispiel auch Hebammen in die Suche nach „Nurse“ ein. Und tendieren so immer mehr zur weiblichen Interpretation. „Die menschgemachten Daten beinhalten bereits die Tendenz. Die gezielte Suche der KI verstärkt dann den Effekt.“ Und das signifikant, wie die JKU Studie erstmals beweist. Untersucht wurde dieser Effekt auf Geschlecht, er kommt aber ebenso in anderen Bereichen wie Alter, Rasse oder Religion vor.

„Das ist kein Grund, KI abzulehnen. Im Gegenteil, Künstliche Intelligenz ist ein enorm wertvolles Werkzeug“, sagt der JKU Forscher. „So hat sich die Qualität der Suchergebnisse durch Deep Learning zumindest verdoppelt. Aber es hat auch Probleme, deren wir uns bewusst sein müssen.“   

Als Resultat fordert Rekab-Saz zwei Schritte: Die Verzerrung der KI-Ergebnisse durch menschliche Vorurteile muss bei der Programmierung der Algorithmen bewusst sein. Und wir alle sind aufgerufen, auch Ergebnisse Künstlicher Intelligenzen mit Vorbehalt und einer gesunden Portion menschlicher Intelligenz zu betrachten.

NEWS 19.06.2020

Startseite