Unesco warnt: KI-Sprachmodelle bedienen Geschlechterstereotype
Sie produzieren u.a. negative Inhalte über Homosexuelle
Auf Künstlicher Intelligenz (KI) basierende Text-Roboter und Sprachmodelle neigen nach einer Studie der UN-Kulturorganisation Unesco dazu, Geschlechterstereotype, rassistische Klischees und homophobe Inhalte zu produzieren.
Frauen würden bis zu viermal häufiger mit Hausarbeit in Verbindung gebracht als Männer, teilte die Unesco am Donnerstag in Paris mit. Sie stünden häufig im Kontext von Begriffen wie «Haus», «Familie» und «Kinder», während bei Männern die Begriffe «Firma», «Führungskraft», «Gehalt» und «Karriere» im Vordergrund ständen. Für die Studie wurden die Werkzeuge zur Verarbeitung natürlicher Sprache, die den gängigsten generativen KI-Plattformen zugrunde liegen, auf Stereotypen hin untersucht.
Jeden Tag verwendeten mehr und mehr Menschen Textroboter bei der Arbeit, im Studium und zu Hause, sagte Unesco-Generaldirektorin Audrey Azoulay. «Diese neuen KI-Anwendungen haben die Macht, auf subtile Weise die Wahrnehmung von Millionen von Menschen zu prägen, so dass selbst leichte geschlechtsspezifische Vorurteile in den von ihnen erzeugten Inhalten die Ungleichheiten in der realen Welt erheblich verstärken können.» Die Unesco verlangte von Regierungen die Schaffung und Umsetzung klarer rechtlicher Rahmenbedingungen mit Blick auf strukturelle Vorurteile in KI-Anwendungen.
Ein Teil der Studie mass die Vielfalt der KI-generierten Inhalte über eine Stichprobe von Personen aus verschiedenen Geschlechtern, unterschiedlicher sexueller Orientierung und kultureller Hintergründe. Dazu wurden die Plattformen aufgefordert, über jede Person «eine Geschichte zu schreiben».
Insbesondere Open-Source-Sprachmodelle (LLM) neigten demnach dazu, Männern vielfältigere und statushohe Jobs wie «Ingenieur», «Lehrer» und «Arzt» zuzuweisen, während Frauen häufig in traditionell abgewertete oder gesellschaftlich stigmatisierte Rollen wie «Dienstmädchen», «Köchin» oder gar «Prostituierte» gedrängt werden. Die Studie ergab auch, dass Sprachmodelle dazu neigen, negative Inhalte über Homosexuelle und bestimmte ethnische Gruppen zu produzieren.
Identifiziert Künstliche Intelligenz bald unsere Queerness? Im Dezember beschloss die EU den AI Act, um den Einsatz von KI-Systemen zu regeln (MANNSCHAFT+)
Das könnte dich auch interessieren
News
Gewalt im Berliner Regenbogenkiez: «Anhaltend viel und beunruhigend»
Der Berliner Regenbogenkiez soll als kriminalitätsbelasteter Ort eingestuft werden. So möchte es zumindest die CDU und fordert mehr Polizeipräsenz. Das schwule Anti-Gewalt-Projekt Maneo sieht das nur als temporäre Lösung
Von Carolin Paul
Politik
Deutschland
News
Wien: Fünf Queers schaffen es ins Parlament
Fünf queere Politiker*innen ziehen ins Parlament in Wien. Auch der schwule SPÖ-Politiker Mario Lindner hat offebar genügend Vorzugstimmen aus der queeren Community erhalten.
Von Christian Höller
Österreich
News
Drogentod von Matthew Perry: Arzt bekennt sich schuldig
Nach Berichten von US-Medien ist #MatthewPerry im Alter von 54 Jahren verstorben. Die Rolle des Chandler Bing in der Serie «Friends» machte den Schauspieler in den 1990er Jahren berühmt
Von Newsdesk/©DPA
Serie
Drogen
Kurznews
++ Homophober Übergriff in Berlin ++ Ermittlungen nach CSD Döbeln ++
LGBTIQ-Kurznews ++ Ermittlungen nach CSD Döbeln ++ Freie Wähler: Selbstbestimmung abgelehnt ++ Tag der offenen Moschee ++
Von Newsdesk Staff
Pride
Deutschland
News
TIN