Sexismus in Berufsbezeichnungen
Ein weiteres Beispiel sind Berufsbezeichnungen, die in einer Sprache wie Englisch geschlechtsneutral sind. Die maschinelle Übersetzung in eine andere gendert diese oft. Aus „a doctor“ und „a nurse“ wird in der Interpretation der Software „ein Arzt“ und „eine Krankenschwester“ – obwohl es ja auch eine Ärztin sein könnte und ein Krankenpfleger. (Im Übrigen sollte man weibliche Krankenpflegerinnen auch nicht mehr Schwester nennen, da dies grundsätzlich auch sexistisch und nicht mehr zeitgemäß ist. Oder wo sind all die Krankenbrüder?) Wenn man im Google Übersetzer z.B. „there is a nurse“ eingibt, lautet die Übersetzung „da ist eine Krankenschwester“. Nur wenn das Worte einzeln eingetippt wird, zeigt Google beide Übersetzungen an. Gibt man ein „there is a doctor“ dann lautet die Übersetzung „da ist ein Arzt“.
Wenn Künstliche Intelligenz rassistisch wird
Im Falle eines Online-Schönheitswettbewerbs mit Teilnehmerinnen aus mehr als 100 Ländern, bei der eine KI statt Menschen die Entscheidung treffen sollte, waren unter den 44 Gekürten mehrheitlich weiße Frauen – obwohl die Anzahl der weißen Teilnehmerinnen nicht überwog. Durch das vorherige Füttern mit rassistischen Daten, die dunkle Haut als weniger schön einordneten, kam die zugrundeliegende KI zu diesem Ergebnis.
Im Mai 2016 stellte die US-Journalist*innenvereinigung ProPublica ihre Recherche zum Rassismus eines Computersystems vor. Der Algorithmus sollte eigentlich unbefangen Vorschläge machen, welche Strafgefangenen vorzeitig aus der Haft entlassen werden können. Dafür wurde er mit alten Entscheidungen von Richter*innen gefüttert, um die Kriterien kennenzulernen. ProPublica konnte nachweisen, dass das Programm Schwarze Menschen härter bestrafen wollte. Da lag der Bias bereits in den Daten, weil die Vorurteile von Richter:innen aus der Vergangenheit so auch Teil des Algorithmus wurden.
Für Wissenschaftler:innen –z.B. denen aus Linz – ist all das aber kein Grund dafür, Künstliche Intelligenz grundsätzlich abzulehnen. Diese sei ein „enorm wertvolles Werkzeug“. Ziel sollte es sein, sich der Verzerrung von KI-Ergebnissen durch menschliche Vorurteile bewusst zu sein und diese sichtbar zu machen. Dieses Wissen gilt es dann bereits bei der Programmierung der Algorithmen zu berücksichtigen.