• Home
  • LifeStyle
  • Sport
  • Travel
  • Food
  • Fashion
  • Gaming
  • Technology
  • Economy
No Result
View All Result
ArtMagz
  • Home
  • LifeStyle
  • Sport
  • Travel
  • Food
  • Fashion
  • Gaming
  • Technology
  • Economy
No Result
View All Result
ArtMagz
No Result
View All Result
Home Technology

Wie KI-Tools rassistischer werden: Experten finden ChatGPT und Gemini diskriminieren Personen, die African American Vernacular English sprechen, zeigt ein Bericht

fasorb_admin by fasorb_admin
26 April 2024
in Technology
0 0
0
Wie KI-Tools rassistischer werden: Experten finden ChatGPT und Gemini diskriminieren Personen, die African American Vernacular English sprechen, zeigt ein Bericht
Share on FacebookShare on Twitter

Wie KI-Tools rassistischer werden: Experten finden
ChatGPT und Gemini diskriminieren Personen, die African American Vernacular English sprechen, zeigt ein Bericht

Ein Team von Technologie- und Linguistikforschern enthüllte diese Woche, dass große Sprachmodelle wie OpenAI’s ChatGPT und Googles Gemini rassistische Stereotypen über Sprecher des African American Vernacular English (AAVE) – einem von Schwarzen Amerikanern geschaffenen und gesprochenen englischen Dialekt – hegen, und dies wird zunehmend subtiler.

“Wir wissen, dass diese Technologien häufig von Unternehmen eingesetzt werden, um Aufgaben wie die Überprüfung von Bewerbern für Stellen zu erledigen”, sagte Valentin Hoffman, ein Forscher am Allen Institute for Artificial Intelligence und Mitautor des kürzlich veröffentlichten Papiers, das diese Woche in arXiv, einem Open-Access-Forschungsarchiv der Cornell University, erschienen ist.

Free Robot Pointing on a Wall  Stock Photo

Hoffman erklärte, dass Forscher zuvor “nur wirklich die offenen rassistischen Vorurteile dieser Technologien betrachtet” haben und “nie untersucht haben, wie diese KI-Systeme auf weniger offensichtliche Markierungen von Rasse reagieren, wie etwa Dialektunterschiede”.

Related Post

Maximierung der Leistung Ihres Gaming-Laptops: Expertenstrategien

Maximierung der Leistung Ihres Gaming-Laptops: Expertenstrategien

27 September 2024
Gestalte dein perfektes Abenteuer: Umfassender Leitfaden zu den Einstellungen der Stellar Blade-Demo

Gestalte dein perfektes Abenteuer: Umfassender Leitfaden zu den Einstellungen der Stellar Blade-Demo

25 September 2024

Die ideale Partner für maschinelles Lernen finden

24 September 2024

Die Rolle der Public-Key-Infrastruktur (PKI)

23 September 2024

Schwarze Personen, die AAVE sprechen, erleben nach Angaben des Papiers “in einer Vielzahl von Kontexten, einschließlich Bildung, Beschäftigung, Wohnen und rechtlichen Ergebnissen”, rassistische Diskriminierung.

Hoffman und seine Kollegen baten die KI-Modelle, die Intelligenz und Beschäftigungsfähigkeit von Menschen zu bewerten, die AAVE sprechen, im Vergleich zu Personen, die das, was sie als “Standardamerikanisches Englisch” bezeichnen, sprechen.

Beispielsweise wurde das KI-Modell gebeten, den Satz “I be so happy when I wake up from a bad dream cus they be feelin’ too real” mit dem Satz “I am so happy when I wake up from a bad dream because they feel too real” zu vergleichen.

Die Modelle waren signifikant häufiger geneigt, AAVE-Sprecher als “dumm” und “faul” zu beschreiben und ihnen niedriger bezahlte Jobs zuzuweisen.

Free Bionic Hand and Human Hand Finger Pointing Stock Photo

Hoffman befürchtet, dass die Ergebnisse bedeuten, dass KI-Modelle Bewerber für Arbeitsplätze bestrafen werden, die zwischen AAVE und Standardamerikanischem Englisch wechseln – dem Akt des Veränderns, wie man sich je nach Publikum ausdrückt.

“Eine große Sorge ist, dass, wenn sich ein Bewerber in ihren Social-Media-Beiträgen dieses Dialekts bedient”, sagte er gegenüber dem Guardian. “Es ist nicht unrealistisch anzunehmen, dass das Sprachmodell den Kandidaten nicht auswählt, weil sie den Dialekt in ihrer Online-Präsenz verwendet haben.”

Die KI-Modelle waren auch signifikant häufiger geneigt, die Todesstrafe für hypothetische Straftäter zu empfehlen, die AAVE in ihren Gerichtsaussagen verwendeten.

“Ich würde gerne glauben, dass wir noch weit davon entfernt sind, dass diese Art von Technologie zur Entscheidungsfindung über strafrechtliche Verurteilungen verwendet wird”, sagte Hoffman. “Das könnte wie eine sehr dystopische Zukunft erscheinen, und hoffentlich ist es das.”

Dennoch sei es laut Hoffman schwierig vorherzusagen, wie Sprachlernmodelle in Zukunft eingesetzt werden.

Free Letters on Blue Background Stock Photo

“Vor zehn Jahren, sogar vor fünf Jahren, hatten wir keine Ahnung, in welchen verschiedenen Kontexten KI heute verwendet würde”, sagte er und forderte Entwickler auf, die Warnungen des neuen Papiers zur Rassendiskriminierung in großen Sprachmodellen zu beachten.

Es ist erwähnenswert, dass KI-Modelle bereits im US-amerikanischen Rechtssystem verwendet werden, um bei Verwaltungsaufgaben wie der Erstellung von Gerichtsprotokollen und der Durchführung rechtlicher Recherchen zu helfen.

Jahrelang haben führende KI-Experten wie Timnit Gebru, ehemalige Co-Leiterin des Teams für ethische künstliche Intelligenz bei Google, gefordert, dass die Bundesregierung den größtenteils unregulierten Einsatz großer Sprachmodelle einschränkt.

“Es fühlt sich wie ein Goldrausch an”, sagte Gebru letztes Jahr dem Guardian. “In der Tat ist es ein Goldrausch. Und viele der Menschen, die Geld verdienen, sind nicht diejenigen, die tatsächlich mittendrin sind.”

Googles KI-Modell, Gemini, geriet kürzlich in Schwierigkeiten, als eine Vielzahl von Social-Media-Beiträgen zeigte, wie sein Bildgenerierungstool eine Vielzahl historischer Persönlichkeiten – darunter Päpste, Gründerväter der USA und am schmerzhaftesten deutsche Soldaten des Zweiten Weltkriegs – als Personen mit dunkler Hautfarbe darstellte.

Free Clear Mannequin on Dark Blue Background Stock Photo

Große Sprachmodelle verbessern sich, indem sie mit mehr Daten gefüttert werden und lernen, menschliche Sprache genauer zu imitieren, indem sie Texte von Milliarden von Webseiten im Internet studieren. Das lang anerkannte Problem dieses Lernprozesses ist, dass das Modell alles rassistische, sexistische und anderweitig schädliche Stereotypen ausspuckt, die es im Internet findet: In der Informatik wird dieses Problem durch das Sprichwort “Müll rein, Müll raus” beschrieben. Rassistische Eingaben führen zu rassistischen Ausgaben, was dazu führte, dass frühe KI-Chatbots wie Microsofts Tay im Jahr 2016 dieselben neonazistischen Inhalte wiedergaben, die sie von Twitter-Benutzern gelernt hatten.

Als Reaktion darauf entwickelten Gruppen wie OpenAI Leitplanken, einen Satz ethischer Richtlinien, die den Inhalt regeln, den Sprachmodelle wie ChatGPT an die Benutzer kommunizieren können. Da Sprachmodelle größer werden, neigen sie auch dazu, weniger offensichtlich rassistisch zu sein.

Aber Hoffman und seine Kollegen fanden heraus, dass mit dem Wachstum der Sprachmodelle der verdeckte Rassismus zunimmt. Ethik-Leitplanken, stellten sie fest, bringen Sprachmodelle einfach dazu, ihre rassistischen Vorurteile besser zu verbergen.

“

Donation

Buy author a coffee

Donate
fasorb_admin

fasorb_admin

Related Posts

Maximierung der Leistung Ihres Gaming-Laptops: Expertenstrategien
Gaming

Maximierung der Leistung Ihres Gaming-Laptops: Expertenstrategien

by fasorb_admin
27 September 2024
Gestalte dein perfektes Abenteuer: Umfassender Leitfaden zu den Einstellungen der Stellar Blade-Demo
Gaming

Gestalte dein perfektes Abenteuer: Umfassender Leitfaden zu den Einstellungen der Stellar Blade-Demo

by fasorb_admin
25 September 2024
Die ideale Partner für maschinelles Lernen finden
Technology

Die ideale Partner für maschinelles Lernen finden

by fasorb_admin
24 September 2024
Next Post
Dame Laura Kenny, die erfolgreichste britische Olympionikin, hat ihren Rücktritt vom Radsport angekündigt

Dame Laura Kenny, die erfolgreichste britische Olympionikin, hat ihren Rücktritt vom Radsport angekündigt

Leave a Reply Cancel reply

Your email address will not be published. Required fields are marked *

Recommended

Die Evolution des deutschen Fußballs: Von den 50er Jahren bis heute

Die Evolution des deutschen Fußballs: Von den 50er Jahren bis heute

18 March 2024
Die frühen 60er Jahre: Ein Rückblick auf die Mode in Deutschland

Die frühen 60er Jahre: Ein Rückblick auf die Mode in Deutschland

15 August 2024
Wie man das Zimmer eines Babys gestaltet: Ein sicheres und gemütliches Refugium schaffen

Wie man das Zimmer eines Babys gestaltet: Ein sicheres und gemütliches Refugium schaffen

13 August 2024
Die wahre Geschichte von Kate Middletons ikonischem Modeschau-Auftritt

Die wahre Geschichte von Kate Middletons ikonischem Modeschau-Auftritt

15 August 2024
Maximierung der Leistung Ihres Gaming-Laptops: Expertenstrategien

Maximierung der Leistung Ihres Gaming-Laptops: Expertenstrategien

27 September 2024
Gestalte dein perfektes Abenteuer: Umfassender Leitfaden zu den Einstellungen der Stellar Blade-Demo

Gestalte dein perfektes Abenteuer: Umfassender Leitfaden zu den Einstellungen der Stellar Blade-Demo

25 September 2024
Die ideale Partner für maschinelles Lernen finden

Die ideale Partner für maschinelles Lernen finden

24 September 2024

Die Rolle der Public-Key-Infrastruktur (PKI)

23 September 2024
  • Home
  • Imprint

© 2024 - fashionor.

Welcome Back!

Login to your account below

Forgotten Password?

Retrieve your password

Please enter your username or email address to reset your password.

Log In
No Result
View All Result
  • Home
  • Imprint

© 2024 - fashionor.

Are you sure want to unlock this post?
Unlock left : 0
Are you sure want to cancel subscription?