pte20250228002 in Forschung

Künstliche Intelligenz reproduziert Vorurteile

Laut belgischen Wissenschaftlern könnte das Training mit objektiv richtigem Datenmaterial helfen


KI: Texte spiegeln oft bestehende Vorurteile wider (Foto: pixabay.com, flutie8211)
KI: Texte spiegeln oft bestehende Vorurteile wider (Foto: pixabay.com, flutie8211)

Brüssel/London (pte002/28.02.2025/06:05)

In Eigenregie Texte und Bilder erzeugende Künstliche Intelligenz (KI) ist voreingenommen. Sie macht Unterschiede bei Ethnien und Geschlechtern. Dass das technisch bedingt ist, wie manche meinen, bezweifeln Tuba Bircan von der Freien Universität Brüssel und Mustafa F. Özbilgin von der Brunel University London.

Machtdynamiken prägen die KI

Den Experten nach wird KI vielmehr stark von gesellschaftlichen Machtdynamiken beeinflusst. Sie lerne aus historischen Daten, die von menschlichen Vorurteilen geprägt seien, und absorbiere und verstärke dabei Diskriminierung. "Ein auffälliger Fall ist das KI-gesteuerte Einstellungsinstrument von Amazon, das männliche Bewerber bervorzugt und letztlich die Geschlechter-Ungleichheiten auf dem Arbeitsmarkt verstärkt", so Bircan.

Auch staatliche KI-Betrugserkennungssysteme hätten Familien, insbesondere Migranten, irrtümlich des Betrugs beschuldigt, was für Betroffene schwere Folgen hatte. "Diese Fälle zeigen, wie KI, anstatt Vorurteile zu beseitigen, Diskriminierung verstärken kann, wenn sie nicht kontrolliert wird. Ohne Transparenz und Rechenschaftspflicht besteht die Gefahr, dass KI zum Werkzeug wird, das bestehende soziale Hierarchien verfestigt, statt sie infrage zu stellen", sagt Bircan.

Mehr Transparenz und Inklusivität

Wenn KI-Systeme mit Daten trainiert werden, die gesellschaftliche Vorurteile widerspiegeln, reproduzieren sie Diskriminierung in Bereichen mit hohen Risiken wie Einstellung, Polizeiarbeit und Sozialleistungen. Da KI auf benutzergenerierten Daten basiert, müsse es bei der Gestaltung, Bereitstellung und Regulierung von KI mehr Transparenz und Inklusivität geben. Andernfalls werde KI die digitale Kluft weiter vertiefen und die sozioökonomischen Unterschiede vergrößern.

"Statt die Mängel der KI als unvermeidlich hinzunehmen, setzen wir uns für proaktive Richtlinien und Rahmenbedingungen ein, die sicherstellen, dass die KI der sozialen Gerechtigkeit dient, anstatt sie zu untergraben", verspricht Bircan. Indem Fairness und Verantwortlichkeit von Anfang in die KI eingebettet würden, lasse sich ihr Potenzial für positive Veränderungen nutzen - statt zuzulassen, dass sie systemische Ungleichheiten verstärkt.

(Ende)
Aussender: pressetext.redaktion
Ansprechpartner: Wolfgang Kempkens
Tel.: +43-1-81140-300
E-Mail: kempkens@pressetext.com
Website: www.pressetext.com
|