KI ist nicht gerecht: Was können wir tun?
Wenn Algorithmen diskriminieren
Beispiele für geschlechterbezogene Verzerrungen durch KI gibt es viele. So wird „the doctor said“ in einer KI-Übersetzung oft zu „der Arzt sagte“ – und nicht „die Ärztin sagte“. Amazons KI-gestützter Recruiting-Algorithmus stufte systematisch Bewerbungen von Frauen als weniger geeignet ein, weil er aus Daten früherer - männlich dominierter - Bewerbungen gelernt hatte. Gesichtserkennungssoftware großer IT-Firmen funktioniert bei weißen Männern deutlich besser als bei Schwarzen Frauen. Auch KI-Bildgeneratoren liefern auf Eingaben wie „nurse“ oder „CEO“ stereotyp weibliche bzw. männliche Darstellungen. KI trägt so dazu bei, bestehende Ungleichheiten zu verstärken.
Woher kommt der Gender Bias in der KI?
Technisch gesehen sind viele dieser Probleme auf die Trainingsdaten zurückzuführen: KI-Systeme lernen aus großen Datenmengen, die gesellschaftliche Vorurteile enthalten – etwa in Form von Sprache, Bildern oder Bewerbungsprofilen. Es gilt die Devise „garbage in – garbage out“. Der sogenannte „Gender Data Gap“ führt außerdem dazu, dass viele weibliche Perspektiven in diesen Datensätzen unterrepräsentiert sind. Hinzu kommt die geringe Diversität in der KI-Entwicklung: Wenn hauptsächlich Männer KI-Systeme entwerfen, bleiben viele Sichtweisen unberücksichtigt. Oft bleibt die Diskriminierung unsichtbar, da KI als objektiv wahrgenommen wird – ein Trugschluss, wie die genannten Beispiele zeigen.
Was Technik und Politik tun (könnten)
Zahlreiche Stimmen fordern Maßnahmen gegen den Gender Bias in der KI: Der EU-AI-Act sieht z. B. vor, dass Systeme mit hohem Risiko auf Verzerrungen hin geprüft werden müssen. Empfehlungen umfassen den Einsatz diverser Teams bei der Entwicklung, die Verwendung gendersensibler Datensätze und generell transparente, erklärbare Systeme („Explainable AI“). Testgruppen mit vielfältigem Hintergrund können helfen, diskriminierende Muster frühzeitig zu erkennen. Auch Folgenabschätzungen im Hinblick auf Menschenrechte sollen während des gesamten Lebenszyklus eines KI-Systems stattfinden.
Was KI-Entwickler und -Anbieter tun können
Es gibt einige europäische Tools zur Bewertung von Bias in KI-Systemen. Das von der EU geförderte BIAS-Projekt entwickelt offene Software-Lösungen, die gezielt Bias und Unfairness in KI-Systemen identifizieren sollen. Im europäischen Kontext wird auch das Open-Source-Tool Aequitas empfohlen, um Bias im Output von KI-Systemen zu erkennen und zu bewerten. Geprüft wird damit nicht ein einzelner Output, sondern das generelle Verhalten des Modells; die Tools richten sich daher vor allem an KI-Anbieter.
Was Nutzer*innen selbst tun können
Auch Anwender*innen haben Einfluss: Wer Prompts für KI-Systeme wie Übersetzer oder Bildgeneratoren nutzt, sollte möglichst präzise und inklusive Formulierungen verwenden – z. B. „female doctor“ statt „doctor“, wenn das Geschlecht relevant ist. Übersetzungen und KI-generierte Inhalte sollten kritisch geprüft und bei Bedarf nachbearbeitet werden. Viele Tools bieten die Möglichkeit, Feedback zu geben – diese Chance sollte genutzt werden, um auf offenkundigen Bias zu reagieren.
De-Biasing durch Prompting
Anja Lorenz (Technische Hochschule Lübeck) beschrieb in einem Workshop Anfang 2025 die Methode „De-Biasing durch Prompting“. Dafür lässt man ein KI-Produkt generieren und verbessert es durch Folge-Prompts wie etwa “finde Tendenzen für vergeschlechtlichte, stereotype oder diskriminierende Aussagen in deinem Ergebnis”, “schlage Änderungen vor, um diese Stereotypen zu vermeiden” oder “formuliere neu, ohne die Stereotypen zu verwenden”. De-Biasing durch Prompting ist also der Versuch, die KI-Tools dazu zu bringen, einen Teil der Verzerrungen selbst zu beseitigen. Eine derartige Prompting-Praxis ist auch in der Kursvorbereitung nützlich – und könnte im Kursgeschehen vorbildhaft wirken.
Was die Erwachsenenbildung tun kann
Fachkräfte in der Erwachsenenbildung können einen entscheidenden Beitrag leisten. Durch die kritische Reflexion über KI in Kursen lassen sich Lernende für diskriminierende Muster sensibilisieren. Gendersensible Didaktik und inklusive Sprache tragen dazu bei, stereotype Darstellungen aufzubrechen. In geschützten Lernräumen können Menschen ermutigt werden, sich mit ihren eigenen Denkmustern auseinanderzusetzen und diskriminierende Technologien zu hinterfragen. Schließlich sollten Bildungseinrichtungen Gendergerechtigkeit auch strukturell verankern – von der Angebotsplanung bis zur Teamzusammensetzung.
Möchten Sie Ihre Bildungsarbeit gendersensibel gestalten und kritische KI-Kompetenz vermitteln? Dann beginnen Sie mit einer einfachen Frage: Wer kommt in Ihren KI-generierten Texten, Bildern oder Unterrichtsmaterialien eigentlich vor – und wie – oder wer nicht?
Verwandte Artikel
![]()
Leitfaden: Promptathons als kreatives Lernformat einsetzen
Promptathons eignen sich als kollaboratives Peer-Learning-Format in der Erwachsenenbildung. Der Leitfaden der Corporate Learning Community unterstützt bei der Planung und Durchführung.![Vier Lernende arbeiten gemeinsam vor einem Laptop und tauschen sich aus.]()
DISKIT Lernprogramm absolvieren und Medienbildung in der Praxis stärken
Teilnehmende des kostenlosen Online-Lernprogramms DISKIT erwerben in verschiedenen Modulen die Skills von Digitalkompetenztrainer*innen. Lernenden Medien- und Informationskompetenz zu vermitteln, ist einer der thematischen Schwerpunkte.![Teilnehmende im Kursraum tauschen sich aus]()
Jetzt noch schnell den EBmooc abschließen und KI im Kurs reflektieren
Wie wirkt KI auf Kursteilnehmende und wie reflektiert ist der Zugang von Erwachsenenbildner*innen? Die vierte Lektion des EBmooc 2025 widmet sich psychologischen Effekten, Bias und der verantwortungsvollen Verwendung von KI im Kurs.![Zwei Personen gestalten ein Lernangebot.]()
Wie nützlich ist KI für Instructional Design?
Eine Analyse gängiger Fachberichte zeigt: Der Einsatz von KI im Instruktionsdesign ist mit einigen Herausforderungen verbunden. Je nachdem, wie man die Technologie nutzt, kann sie aber Effizienz und Kreativität steigern.![Grafik: Laptop, dessen Bildschirm Bücherregale zeigt.]()
KI und Urheberrecht in der Bildungsarbeit
Darf KI-Output frei genutzt werden? Dürfen geschützte Werke in KI-Tools hochgeladen werden? Und muss man KI-generierte Inhalte kennzeichnen? Eine aktuelle Broschüre klärt solche und ähnliche Fragen.![]()
KI selbst hosten: Das geht auch als Erwachsenenbildner*in
Mehr Kontrolle über Modelle und Daten, weniger Abhängigkeit von großen Plattformen: Nele Hirsch zeigt Schritt für Schritt, wie die Gestaltung einer eigenen KI-Umgebung auch Nicht-Techniker*innen gelingt.





