Gender & KI
Zwischen Bias, Chancen und Medienmacht
Künstliche Intelligenz ist längst Teil unserer Medienwelt - von automatisierten Texten über visuelle Bildgeneratoren bis hin zu sprechenden Avataren. Doch was passiert, wenn Maschinen mitlernen, ohne mitzudenken? Vor allem aus einer geschlechtergerechten Perspektive wird schnell deutlich: KI ist nicht neutral. Sie basiert auf Daten, die unsere Gegenwart und Vergangenheit widerspiegeln - mitsamt aller Ungleichheiten.
In vielen Anwendungen sind Frauen strukturell unterrepräsentiert oder verzerrt dargestellt: In Bilddatenbanken erscheinen sie häufiger in häuslichen, seltener in führenden Rollen. In automatisierten Sprachmodellen werden sie oft emotionaler beschrieben, seltener mit Expertise assoziiert. Die Verzerrungen ("Bias") entstehen also nicht, weil die KI "sexistisch" wäre, sondern weil die Trainingsdaten wie Bilder, Studienergebnisse und Sprache es sind. Sprache, ob umgangssprachlich, literarisch oder wissenschaftlich, modelliert Rollenbilder, und KI gibt sie - unreflektiert - weiter. Auch Medien, die KI nutzen, laufen Gefahr, stereotype Repräsentationen zu verstärken, wenn Trainingsdaten nicht kritisch hinterfragt werden.
Hinzu kommt: Frauen sind in der Entwicklung von KI-Systemen unterrepräsentiert. Die Tech-Branche ist männlich dominiert, diverse Teams sind noch zu selten. Weibliche Perspektiven fehlen in der Entwicklung vieler Systeme: in Codes, Auswahlprozessen und Designentscheidungen - mit Folgen für Fairness und Vielfalt. Und was nicht mitgedacht wird, wird oft schlicht nicht gebaut.
Heißt das: KI diskriminiert zwangsläufig? Nicht zwingend - aber sie tut es, wenn wir sie lassen. Es gibt reale Risiken, von Sichtbarkeitsverzerrungen bis hin zu automatisierten Entscheidungen mit Gender-Bias oder zu für den weiblichen Körper nicht funktionierenden App-Angeboten. Aber es gibt auch Chancen: KI kann helfen, Stereotype sichtbar zu machen, Sprache inklusiver zu gestalten, neue Perspektiven in den Medien zu eröffnen und Gleichstellung gezielter zu fördern.
Ob sie das tut, hängt davon ab, wer sie gestaltet, mit welchen Daten sie trainiert wird - und welche Fragen wir ihr stellen. Wir sollten also nicht nur beobachten, was KI tut, sondern mitreden, was sie tun sollte. Auch im direkten Dialog mit KI Sprachmodellen wie beispielsweise ChatGPT: hinterfragen Sie - und korrigieren Sie, diskutieren Sie, fragen Sie nach, wenn ein Ergebnis diskriminierend formuliert ist, und / oder erklären Sie! Denn Gleichstellung endet nicht an der Oberfläche der Medien - sie beginnt immer öfter im Algorithmus.
Weiterführende Informationen:
Unbedingt empfehlenswert zum Thema ist die Podcastfolge KRISENSTARK #9 von Madame Moneypenny: Natascha Wegelin unterhält sich mit Eva Gengler, Gründerin von feminist AI und Doktorandin der Wirtschaftsinformatik, über das Thema Gender und KI. Mit ihrem Unternehmen setzt sich Gengler dafür ein, Künstliche Intelligenz so zu gestalten und zu nutzen, dass sie patriarchale Strukturen abbaut, statt sie zu verstärken.
Quellen und Links
Podcastfolge KRISENSTARK #9 https://open.spotify.com/episode/2LDCKGzmHCZE799CodAHzs oder https://www.youtube.com/watch?v=sWLc8ZETkBk
https://www.feminist-ai.com/de
Gengler, E., Kraus, A., Bodrožić-Brnić, K. (2024). Faires KI-Prompting - Ein Leitfaden für Unternehmen. BSP Business and Law School – Hochschule für Management und Recht. 28 Seiten. Kostenloser Download unter https://www.digitalzentrum-zukunftskultur.de/material/faires-ki-prompting-13136/
Aktions- und Feiertage im September
28. September Safe Abortion Day