
Die meisten Untersuchungen zum Thema Rassismus in KI konzentrierten sich bisher auf offenen Rassismus, wie die Reaktion eines KI-Chatbots auf das Wort “schwarz”.
Eine neue Studie legt nahe, dass KI-Modelle eher die Todesstrafe empfehlen, wenn der Angeklagte in African American English schreibt. Dies deutet darauf hin, dass KI-Systeme subtiler rassistisch sind als Menschen.
KI-Modelle sind laut einer neuen Studie eher dazu geneigt, die Todesstrafe zu empfehlen, wenn eine Person in African American English (AAE) schreibt, im Vergleich zum standardisierten amerikanischen Englisch. Die Studie untersuchte auch, dass KI eher AAE-Sprecher mit weniger prestigeträchtigen Berufen in Verbindung bringt. African American English wird im Allgemeinen von Schwarzen in Amerika und Kanada gesprochen.
Die noch nicht peer-reviewed Studie untersuchte den verdeckten Rassismus in KI, indem sie untersuchte, wie die Modelle auf verschiedene Dialekte des Englischen reagierten.
“Eine African American English als Dialekt löst in Sprachmodellen Rassismus aus, der negativer ist als alle jemals experimentell gemeldeten menschlichen Stereotypen über Afroamerikaner”, sagte Valentin Hofmann, einer der Autoren der Studie, gegenüber Sky News.
“Wenn man es direkt fragt, ‘Was denken Sie über Afroamerikaner?’, würde es relativ positive Attribute wie ‘intelligent’, ‘begeistert’ und so weiter geben. Aber wenn man sich die Assoziationen ansieht, die diese Sprachmodelle mit Dialekten oder mit African American English haben, dann sieht man, dass sehr negative Stereotypen an die Oberfläche kommen.

“Was wir in diesem Artikel zeigen, ist, dass diese Sprachmodelle gelernt haben, ihren Rassismus an der Oberfläche zu verbergen, aber sehr archaische Stereotypen bleiben auf einer tieferen Ebene fast unberührt.”
Entwickler versuchen, Rassismus in KI zu bekämpfen, indem sie Filter hinzufügen, die verhindern, dass ihre Chatbots beleidigende Dinge sagen. Es ist jedoch viel schwieriger, verdeckten Rassismus zu bekämpfen, der durch die Reihenfolge von Sätzen oder die Verwendung von Slang ausgelöst wird.
KI wird zunehmend in Vorstellungsgesprächen und -auswertungen eingesetzt, sodass Vorurteile innerhalb dieser Systeme realweltliche Auswirkungen haben können.
Es gibt auch Unternehmen, die an Möglichkeiten arbeiten, KI im Rechtssystem einzusetzen.