Erwachsenenbildner*innen zu Besuch bei der Ausstellung zu KI und Mensch

16.04.2024, Text: Doris Rottermanner, Kärntner Bildungswerk/Ring ÖBW
Wie man bei der Nutzung von KI Daten schützen sollte und wie KI Diskriminierung zementiert: Die Ausstellung in Wien unterstützt dabei, für einen kritischen Umgang mit KI zu sensibilisieren.
Zu sehen bei der Sonderausstellung "Smart World" im Technischen Museum Wien: Nachbildung eines Trainings für KI mit neuronalen Verbindungen.
Foto: CC BY, Doris Rottermanner, Kärntner Bildungswerk, KI Traininsnachbildung, auf erwachsenenbildung.at

Künstliche Intelligenz (KI) entwickelt sich seit einiger Zeit rasant weiter und ist mittlerweile mitten im Alltag der Menschen angekommen. Oft ist jedoch gar nicht bewusst, wie weit KI in unser aller Leben Einzug gehalten hat – ob als „smarte“ Zahnbürste, sprachgesteuerte Gadgets wie Alexa, Siri und Co, oder digitale Tools, die meist ebenfalls bereits mit KI ausgestattet sind.
Diese Entwicklungen beschäftigen auch die Erwachsenenbildung, deren Pflicht es ist, sich mit Trends auseinanderzusetzen, diese zu hinterfragen, Anwendungsmöglichkeiten aufzuzeigen und gleichzeitig ihre Zielgruppe oder ihre Teilnehmer*innen für einen kritischen Umgang zu sensibilisieren. 

Sonderausstellung „Mensch & KI“ 

Vor diesem Hintergrund organisierte die „AG Digitalisierung“, eine von mehreren Arbeitsgruppen im Ring Österreichischer Bildungswerke, eine Exkursion zur Sonderausstellung „Smart World. Wie künstliche Intelligenz unsere Welt verändert“ ins Technische Museum Wien. Zwölf Personen aus unterschiedlichen Mitgliedsorganisationen aus ganz Österreich nahmen an der speziellen Führung „Mensch & KI – digitale Wechselwirkungen“ teil. 
Obwohl die Ausstellung bereits vor zwei Jahren als Wanderausstellung konzipiert wurde, zeigte ihr Inhalt eindrücklich die Hintergründe, Funktionsweisen, Gefahren, Grenzen und Möglichkeiten von KI in unterschiedlichen Lebensbereichen. 

Die Erwachsenenbildner*innen setzten sich bei der Ausstellung kritisch mit dem Thema auseinander. Ein Einblick: 

Eindeutig KI-generiert? 

Zur Einstimmung auf die Ausstellung „Mensch & KI“ hatten die Teilnehmenden im Vorfeld die Aufgabe, kreative Antworten auf verschiedene Fragen zu finden. Eine Aufgabe war zum Beispiel: „Erfinde einen Werbeslogan, der möglichst viele Menschen zur Teilnahme an der bevorstehenden EU-Wahl motiviert.“
Aus allen kreativen Antworten mussten die Besucher*innen dann die Antwort finden, die nicht mensch-, sondern KI-generiert war. Das Warm-Up zeigte klar: KI eindeutig zu erkennen ist fast unmöglich. 
Hätten Sie es gewusst? Im Quiz „Mensch oder KI?“ können Sie es ausprobieren.

KI und Ressourcenverbrauch

Dass KI enorme Rechenleistungen benötigt und somit einen hohen Ressourcenverbrauch (Strom und Wasser) und CO2-Ausstoß fördert, ist wahrscheinlich bekannt. Zu Beginn der Ausstellung gingen die Besucher*innen aber noch einen Schritt zurück um ein Gefühl für Ressourcenverbrauch zu erhalten und durften schätzen, wie viel Ressourcen für folgende Szenarien noch ganz ohne KI jeweils verbraucht werden (Anhand von Daten aus 2018):

  • eine Stunde Netflix in HD zu streamen verbraucht so viel, wie mit einem Kleinwagen einen Kilometer zu fahren,
  • eine Bitcoin-Transaktion durchzuführen entspricht dem Stromverbrauch eines Kühlschranks über einen Zeitraum von acht Monaten,
  • die Speicherung von Datenmüll in Deutschland im Jahr 2018 entspricht dem Stromverbrauch der Stadt Berlin in einem Jahr,
  • eine „normale“ Googleanfrage verbraucht so viel, wie eine halbe Stunde Brenndauer einer 40 Watt Glühbirne.

Wie hoch der Ressourcenverbrauch bei einer Anfrage an ChatGPT ist, konnte durch die Ausstellung leider nicht beantwortet werden. Eine Internetrecherche danach ergab jedoch, dass „ChatGPT [...] möglicherweise ca. 564 Megawattstunden Strom pro Tag [verbraucht]. Diese Zahl schätzt der Datenforscher Alex de Vries in einem aktuellen Kommentar im „Journal Joule“, wie beim MDR zu lesen ist.

Doch nicht erst die Verwendung von KI-Tools benötigt Ressourcen. Der Verbrauch beginne bereits beim „Trainieren“ (Maschinelles Lernen / Deep Learning) einer KI, heißt es in der Zeit. Das Magazin verweist auf eine Studie, die zu dem Ergebnis kam, dass das Training einer KI circa so viel CO₂-Emissionen verursacht, wie sie fünf Autos in ihrem gesamten Lebenszyklus erzeugen.

Bei Prompts auf persönliche Daten achten

Bei der Nutzung von KI-Tools spielen Datenschutz und Kontrolle eine große Rolle. Benutzer*innen sind gemäß DSGVO zugleich mitverantwortlich für die Verarbeitung der Daten, die sie eingeben. Umso wichtiger ist es, keine sensiblen, persönlichen Daten oder organisationsinterne Informationen, in sogenannte „Prompts“ (Befehle an die KI) einzugeben. Denn einmal eingegeben, sind sie Teil der großen Datensuppe, auf die KI bei nächsten Anfragen schöpft. 

Die Ausstellung thematisierte auch den Aspekt der Kontrolle – speziell bezogen auf private und öffentliche Überwachungssysteme, wie Gesichtserkennungsprogramme. Diese können zwar derzeit durch zum Beispiel T-Shirts mit unscharfen Fotos ausgetrickst werden, tragen aber auch wesentlich zu weiteren kritischen Aspekten bei, nämlich zur Diskriminierung und Förderung von Ungerechtigkeiten – wie das nächste Beispiel zeigt.

KI zementiert Diskriminierung

Eine aufrüttelnde Erkenntnis der Ausstellung waren die durch KI ersichtlichen Ungerechtigkeiten. Sucht man zum Beispiel nach Bildern von erfolgreichen Menschen, zeigen die Suchergebnisse noch mehrheitlich weiße Menschen, und hier vorwiegend Männer. 
Auch Gesichtserkennungen funktionieren bei Menschen mit heller Hautfarbe besser, als bei nichtweißen Menschen. Die tagessschau.de berichtete 2023 etwa von Joy Buolamwini, einer bekannten MIT-Studentin, die 2016 bei einem Selbsttest nur mit weißer Maske erkannt wurde. Daraufhin untersuchte sie 2018 unterschiedliche Gesichtserkennungssoftware und stellte fest, dass die KI zwar alle Gesichter als solche erkannt hatte, in Bezug auf das Geschlecht die Fehlerquote aber bei schwarzen Frauen bei 35%, bei weißen Männern hingegen lediglich bei einem Prozent lag. 

Die tagesschau.de nennt in dem Beitrag vier Gründe, warum das so ist: 

  • Grund 1: Entwicklerteams sind meistens männlich dominiert. Frauen und Migrant*innen sind hingegen unterrepräsentiert.
  • Grund 2: Datensätze, mit denen KI trainiert werden, sind zu wenig divers.
  • Grund 3: Lernen aus der Vergangenheit, in der Männer bevorzugt wurden, fördert die Benachteiligung weiter.
  • Grund 4: Menschen haben Vorurteile, daher wird KI nie völlig neutral sein können.

KI fördert also die Aufrechterhaltung von gesellschaftlichen Machtverhältnissen und damit verbundene Ungerechtigkeiten. Daher ist es umso wichtiger für die Arbeit in der Erwachsenenbildung, diskriminierende und ethische Aspekte zu kennen.  

Wie sehr kann KI Weiterbildung automatisieren?

Auch die Arbeitswelt bleibt von den KI-basierten Entwicklungen nicht verschont. So zum Beispiel wirft die Ausstellung auf, dass 48% der Arbeit im Bereich Kunst und Entertainment und 32% der Arbeit im Bereich Aus- und Weiterbildung automatisierbar werden könnten. Worauf diese Annahmen beruhen und was dahinter steckt, bleibt für die Besucher*innen leider unklar.

Fazit und offene Fragen

Die genannten Aspekte erwecken vielleicht den Eindruck, dass KI grundsätzlich etwas Schlechtes sei. Künstliche Intelligenz birgt sicherlich einige Gefahren, die es aufzuzeigen und für die es zu sensibilisieren gilt.

Für die Erwachsenenbildung gilt es, sich kritisch damit auseinanderzusetzen, anstatt diese Entwicklungen generell abzulehnen. Als Erwachsenenbildner*innen müssen wir uns fragen, welche Daten wir und andere eingeben und abrufen, inwiefern wir und andere durch den Einsatz von KI Ungerechtigkeiten fördern, ob der Nutzen den Ressourcenaufwand rechtfertigt und wann es besser ist, auf den altbewährten eigenen Kopf zurückzugreifen. 

KI kann also sicherlich in vielen Bereichen unterstützend wirken, aber gerade der Bereich der (Erwachsenen-)Bildung lebt vom Dialog zwischen Menschen und nicht zwischen Menschen und KI.  

Kürzlich wurde übrigens der „European AI Act“ als rechtlicher Rahmen für den Einsatz von künstlicher Intelligenz verabschiedet, der auch Auswirkungen auf den Einsatz von KI in Erwachsenenbildungseinrichtungen und im Zusammenhang mit ehrenamtlichem Engagement haben wird. Für diesbezügliche Fragen wird in Österreich eine KI-Servicestelle eingerichtet, die auch Anlaufstelle für Bürger*innen sein soll.

Online Diskussion im Mai: KI und soziale Gerechtigkeit

Diese Denkanstöße für die Erwachsenenbildung trägt der Ring Österreichischer Bildungswerke weiter und lädt zur Online-Diskussion „Entlarvung des Bias. Künstliche Intelligenz und Soziale Gerechtigkeit“. Am 27. Mai findet die Podiumsdiskussion mit Expert*innen zum Thema statt, darunter Julia Eisner, Expertin für Bias in KI im Verein Women in AI Austria. Am 23. Mai gibt es auch ein Vorprogramm - eine Watchparty mit dem Film „Coded Bias“.

Weitere Informationen:
Creative Commons License Dieser Text ist unter CC BY 4.0 International lizenziert.

Verwandte Artikel