KI ist nicht gerecht: Was können wir tun?
Wenn Algorithmen diskriminieren
Beispiele für geschlechterbezogene Verzerrungen durch KI gibt es viele. So wird „the doctor said“ in einer KI-Übersetzung oft zu „der Arzt sagte“ – und nicht „die Ärztin sagte“. Amazons KI-gestützter Recruiting-Algorithmus stufte systematisch Bewerbungen von Frauen als weniger geeignet ein, weil er aus Daten früherer - männlich dominierter - Bewerbungen gelernt hatte. Gesichtserkennungssoftware großer IT-Firmen funktioniert bei weißen Männern deutlich besser als bei Schwarzen Frauen. Auch KI-Bildgeneratoren liefern auf Eingaben wie „nurse“ oder „CEO“ stereotyp weibliche bzw. männliche Darstellungen. KI trägt so dazu bei, bestehende Ungleichheiten zu verstärken.
Woher kommt der Gender Bias in der KI?
Technisch gesehen sind viele dieser Probleme auf die Trainingsdaten zurückzuführen: KI-Systeme lernen aus großen Datenmengen, die gesellschaftliche Vorurteile enthalten – etwa in Form von Sprache, Bildern oder Bewerbungsprofilen. Es gilt die Devise „garbage in – garbage out“. Der sogenannte „Gender Data Gap“ führt außerdem dazu, dass viele weibliche Perspektiven in diesen Datensätzen unterrepräsentiert sind. Hinzu kommt die geringe Diversität in der KI-Entwicklung: Wenn hauptsächlich Männer KI-Systeme entwerfen, bleiben viele Sichtweisen unberücksichtigt. Oft bleibt die Diskriminierung unsichtbar, da KI als objektiv wahrgenommen wird – ein Trugschluss, wie die genannten Beispiele zeigen.
Was Technik und Politik tun (könnten)
Zahlreiche Stimmen fordern Maßnahmen gegen den Gender Bias in der KI: Der EU-AI-Act sieht z. B. vor, dass Systeme mit hohem Risiko auf Verzerrungen hin geprüft werden müssen. Empfehlungen umfassen den Einsatz diverser Teams bei der Entwicklung, die Verwendung gendersensibler Datensätze und generell transparente, erklärbare Systeme („Explainable AI“). Testgruppen mit vielfältigem Hintergrund können helfen, diskriminierende Muster frühzeitig zu erkennen. Auch Folgenabschätzungen im Hinblick auf Menschenrechte sollen während des gesamten Lebenszyklus eines KI-Systems stattfinden.
Was KI-Entwickler und -Anbieter tun können
Es gibt einige europäische Tools zur Bewertung von Bias in KI-Systemen. Das von der EU geförderte BIAS-Projekt entwickelt offene Software-Lösungen, die gezielt Bias und Unfairness in KI-Systemen identifizieren sollen. Im europäischen Kontext wird auch das Open-Source-Tool Aequitas empfohlen, um Bias im Output von KI-Systemen zu erkennen und zu bewerten. Geprüft wird damit nicht ein einzelner Output, sondern das generelle Verhalten des Modells; die Tools richten sich daher vor allem an KI-Anbieter.
Was Nutzer*innen selbst tun können
Auch Anwender*innen haben Einfluss: Wer Prompts für KI-Systeme wie Übersetzer oder Bildgeneratoren nutzt, sollte möglichst präzise und inklusive Formulierungen verwenden – z. B. „female doctor“ statt „doctor“, wenn das Geschlecht relevant ist. Übersetzungen und KI-generierte Inhalte sollten kritisch geprüft und bei Bedarf nachbearbeitet werden. Viele Tools bieten die Möglichkeit, Feedback zu geben – diese Chance sollte genutzt werden, um auf offenkundigen Bias zu reagieren.
De-Biasing durch Prompting
Anja Lorenz (Technische Hochschule Lübeck) beschrieb in einem Workshop Anfang 2025 die Methode „De-Biasing durch Prompting“. Dafür lässt man ein KI-Produkt generieren und verbessert es durch Folge-Prompts wie etwa “finde Tendenzen für vergeschlechtlichte, stereotype oder diskriminierende Aussagen in deinem Ergebnis”, “schlage Änderungen vor, um diese Stereotypen zu vermeiden” oder “formuliere neu, ohne die Stereotypen zu verwenden”. De-Biasing durch Prompting ist also der Versuch, die KI-Tools dazu zu bringen, einen Teil der Verzerrungen selbst zu beseitigen. Eine derartige Prompting-Praxis ist auch in der Kursvorbereitung nützlich – und könnte im Kursgeschehen vorbildhaft wirken.
Was die Erwachsenenbildung tun kann
Fachkräfte in der Erwachsenenbildung können einen entscheidenden Beitrag leisten. Durch die kritische Reflexion über KI in Kursen lassen sich Lernende für diskriminierende Muster sensibilisieren. Gendersensible Didaktik und inklusive Sprache tragen dazu bei, stereotype Darstellungen aufzubrechen. In geschützten Lernräumen können Menschen ermutigt werden, sich mit ihren eigenen Denkmustern auseinanderzusetzen und diskriminierende Technologien zu hinterfragen. Schließlich sollten Bildungseinrichtungen Gendergerechtigkeit auch strukturell verankern – von der Angebotsplanung bis zur Teamzusammensetzung.
Möchten Sie Ihre Bildungsarbeit gendersensibel gestalten und kritische KI-Kompetenz vermitteln? Dann beginnen Sie mit einer einfachen Frage: Wer kommt in Ihren KI-generierten Texten, Bildern oder Unterrichtsmaterialien eigentlich vor – und wie – oder wer nicht?
Verwandte Artikel
![]()
RAG-Chatbot zum AI Act: Die KI-Servicestelle zeigt, wie es geht
Die RTR-GmbH bietet mit dem „AI Act Chatbot“ ein RAG-System an, das Fragen rund um die europäische KI-Verordnung quellentreu beantwortet.![]()
Wie KI bei der Kursplanung unterstützen kann
Von der Bedarfsanalyse bis zur Kursevaluierung: Generative KI kann viele Schritte der Kursplanung erleichtern. Eine Lektion im EBmooc 2025 zeigt Praxisbeispiele und aktuelle Entwicklungen.![Grafik: Pfad zur fertigen Lerneinheit]()
Didaktik für digitale Kompetenzen: vom Kurs zur echten Lernerfahrung
Wer digitale Themen lehrt, weiß auch: Tools und Technik sind nicht genug. Entscheidend ist die Kunst, Lernprozesse so zu gestalten, dass sie Sinn, Relevanz und Nachhaltigkeit entfalten. Wie das geht, zeigt das kostenlose Lernprogramm DISKIT.![]()
Handreichung: KI-Schulungen praxisnah gestalten und umsetzen
Der Leitfaden von Miriam Auer unterstützt Erwachsenenbildner*innen bei der Konzeption und Durchführung eigener Bildungsangebote mit KI – von rechtlichen Fragen bis zur didaktischen Umsetzung.![Grafik: abstrakte bunte Darstellung von Datenströmen, Waagen und einem Schriftzug "AI-Act"]()
KI-Verordnung ruft Erwachsenenbildung zum Handeln auf
Der AI-Act ist mit zahlreichen Bestimmungen bereits in Kraft und bringt konkrete Verpflichtungen für die Erwachsenenbildung mit sich. Eine Lektion des offenen EBmooc bündelt Informationen dazu.![]()
Datenschutz: ein neuer KI-Chatbot für die Erwachsenenbildung
Mit „Lumo“ hat der Schweizer Anbieter Proton einen besonders datensparsamen KI-Chatbot veröffentlicht. Er ist auch ohne Anmeldung nutzbar und vollständig Open Source.





