KI ist nicht gerecht: Was können wir tun?

26.06.2025, Text: Birgit Aschemann, Redaktion/CONEDU
KI-Systeme reproduzieren gesellschaftliche Vorurteile, insbesondere in Bezug auf Geschlecht. Was bedeutet das für die Geschlechtergerechtigkeit – und welche Rolle kann die Erwachsenenbildung dabei spielen?
KI-generierte Bilder von Männern im Tech-Business und Frauen als Kindergärtner*innen veranschaulichen den Gender-Bias.
Bildgeneratoren erzeugen stereotype Darstellungen und nehmen häufig Geschlechtszuweisungen vor, die dem jeweiligen Prompt gar nicht entsprechen.
Montage: , KI-generiert von CONEDU mit Adobe Firefly und ChatGPT, https://erwachsenenbildung.at

Wenn Algorithmen diskriminieren

Beispiele für geschlechterbezogene Verzerrungen durch KI gibt es viele. So wird „the doctor said“ in einer KI-Übersetzung oft zu „der Arzt sagte“ – und nicht „die Ärztin sagte“. Amazons KI-gestützter Recruiting-Algorithmus stufte systematisch Bewerbungen von Frauen als weniger geeignet ein, weil er aus Daten früherer - männlich dominierter - Bewerbungen gelernt hatte. Gesichtserkennungssoftware großer IT-Firmen funktioniert bei weißen Männern deutlich besser als bei Schwarzen Frauen. Auch KI-Bildgeneratoren liefern auf Eingaben wie „nurse“ oder „CEO“ stereotyp weibliche bzw. männliche Darstellungen. KI trägt so dazu bei, bestehende Ungleichheiten zu verstärken.

Woher kommt der Gender Bias in der KI?

Technisch gesehen sind viele dieser Probleme auf die Trainingsdaten zurückzuführen: KI-Systeme lernen aus großen Datenmengen, die gesellschaftliche Vorurteile enthalten – etwa in Form von Sprache, Bildern oder Bewerbungsprofilen. Es gilt die Devise „garbage in – garbage out“. Der sogenannte „Gender Data Gap“ führt außerdem dazu, dass viele weibliche Perspektiven in diesen Datensätzen unterrepräsentiert sind. Hinzu kommt die geringe Diversität in der KI-Entwicklung: Wenn hauptsächlich Männer KI-Systeme entwerfen, bleiben viele Sichtweisen unberücksichtigt. Oft bleibt die Diskriminierung unsichtbar, da KI als objektiv wahrgenommen wird – ein Trugschluss, wie die genannten Beispiele zeigen.

Was Technik und Politik tun (könnten)

Zahlreiche Stimmen fordern Maßnahmen gegen den Gender Bias in der KI: Der EU-AI-Act sieht z. B. vor, dass Systeme mit hohem Risiko auf Verzerrungen hin geprüft werden müssen. Empfehlungen umfassen den Einsatz diverser Teams bei der Entwicklung, die Verwendung gendersensibler Datensätze und generell transparente, erklärbare Systeme („Explainable AI“). Testgruppen mit vielfältigem Hintergrund können helfen, diskriminierende Muster frühzeitig zu erkennen. Auch Folgenabschätzungen im Hinblick auf Menschenrechte sollen während des gesamten Lebenszyklus eines KI-Systems stattfinden.

Was KI-Entwickler und -Anbieter tun können

Es gibt einige europäische Tools zur Bewertung von Bias in KI-Systemen. Das von der EU geförderte BIAS-Projekt entwickelt offene Software-Lösungen, die gezielt Bias und Unfairness in KI-Systemen identifizieren sollen. Im europäischen Kontext wird auch das Open-Source-Tool Aequitas empfohlen, um Bias im Output von KI-Systemen zu erkennen und zu bewerten. Geprüft wird damit nicht ein einzelner Output, sondern das generelle Verhalten des Modells; die Tools richten sich daher vor allem an KI-Anbieter.

Was Nutzer*innen selbst tun können

Auch Anwender*innen haben Einfluss: Wer Prompts für KI-Systeme wie Übersetzer oder Bildgeneratoren nutzt, sollte möglichst präzise und inklusive Formulierungen verwenden – z. B. „female doctor“ statt „doctor“, wenn das Geschlecht relevant ist. Übersetzungen und KI-generierte Inhalte sollten kritisch geprüft und bei Bedarf nachbearbeitet werden. Viele Tools bieten die Möglichkeit, Feedback zu geben – diese Chance sollte genutzt werden, um auf offenkundigen Bias zu reagieren.

De-Biasing durch Prompting

Anja Lorenz (Technische Hochschule Lübeck) beschrieb in einem Workshop Anfang 2025 die Methode „De-Biasing durch Prompting“. Dafür lässt man ein KI-Produkt generieren und verbessert es durch Folge-Prompts wie etwa “finde Tendenzen für vergeschlechtlichte, stereotype oder diskriminierende Aussagen in deinem Ergebnis”, “schlage Änderungen vor, um diese Stereotypen zu vermeiden” oder “formuliere neu, ohne die Stereotypen zu verwenden”. De-Biasing durch Prompting ist also der Versuch, die  KI-Tools dazu zu bringen, einen Teil der Verzerrungen selbst zu beseitigen. Eine derartige Prompting-Praxis ist auch in der Kursvorbereitung nützlich – und könnte im Kursgeschehen vorbildhaft wirken.

Was die Erwachsenenbildung tun kann

Fachkräfte in der Erwachsenenbildung können einen entscheidenden Beitrag leisten. Durch die kritische Reflexion über KI in Kursen lassen sich Lernende für diskriminierende Muster sensibilisieren. Gendersensible Didaktik und inklusive Sprache tragen dazu bei, stereotype Darstellungen aufzubrechen. In geschützten Lernräumen können Menschen ermutigt werden, sich mit ihren eigenen Denkmustern auseinanderzusetzen und diskriminierende Technologien zu hinterfragen. Schließlich sollten Bildungseinrichtungen Gendergerechtigkeit auch strukturell verankern – von der Angebotsplanung bis zur Teamzusammensetzung.

Möchten Sie Ihre Bildungsarbeit gendersensibel gestalten und kritische KI-Kompetenz vermitteln? Dann beginnen Sie mit einer einfachen Frage: Wer kommt in Ihren KI-generierten Texten, Bildern oder Unterrichtsmaterialien eigentlich vor – und wie – oder wer nicht?

Weitere Informationen:
Creative Commons License Dieser Text ist unter CC BY 4.0 International lizenziert.

Verwandte Artikel