ChatGPT als Lernwerkzeug: Wer trainiert hier wen?
Achtung Falle! Chatbots kompetent einsetzen
Sprachmodelle im Chatbot-Format wie etwa ChatGPT beantworten (scheinbar) all unsere Fragen. Für Lernende klingt dies verführerisch, und Schreibaufgaben erledigen sich fast von allein. Lehrende zweifeln womöglich an ihrer Existenzberechtigung, zumindest wenn es nicht um haptische Tätigkeiten geht. Dabei antworten KI-Chatbots sprachlich überzeugend, aber manchmal auch falsch. Was für die einen nach Utopie klingt, ist für die anderen Dystopie. Aktuell trifft keines der Extremszenarien zu. Klar ist aber, dass die Nutzung von Chatbots alltäglich werden wird. Die Ertüchtigung von Lehrenden und Lernenden ist daher unumgänglich.
Wer fragt, führt!
Chatbot-Nutzer*innen müssen zunächst wissen, welche Fragen sie im Eingabefeld stellen dürfen. Verzichtet werden muss auf Fragen, die aus regulatorischen Gründen (Firmenpolicy) nicht erlaubt sind sowie auf solche, die sich aus ethischen Gründen verbieten (zum Beispiel Anleitungen für kriminelle Handlungen). Auch auf Fragen, die ein Chatbot aufgrund seiner Datenbasis nicht korrekt beantworten kann, sollte verzichten, wer ein valides Ergebnis braucht. Die Eingabe von personenbezogenen Daten oder vertraulichen Informationen ist immer problematisch. Je präziser eine Frage ist, desto besser fällt die Antwort aus. Aber wie im richtigen Leben muss auch das präzise Fragenstellen geübt werden.
KI-Prozesse verstehen
Moderne KI-basierte Chatbots sind trotz diverser Forderungen nach Transparenz eine „graue Box“. Die Algorithmen und voreingestellte Filter sind nur teilweise bekannt, und die genauen Lernprozesse in großen neuronalen Netzen entziehen sich auch der Kenntnis ihrer Urheber*innen. Wichtig ist jedoch auch für Laien, die Grundlagen von KI zu verstehen, um Fallstricke zu erkennen. Interessierte können diese Grundlagen auch ganz ohne Computer erwerben, wie eine Lernunterlage der Universität Erlangen-Nürnberg zeigt. Grundsätzlich ist klar, dass KI-Anbieter wirtschaftliche Interessen verfolgen und nicht frei von politischen Einflüssen sind. Das sollte man bei der Interpretation aller KI-Angebote und KI-Ergebnisse bedenken.

Grafik: CC BY-SA, Wolfgang König, basierend auf der Grafik "Graue-Box-Modell der Chatbox-Didaktik", http://dx.doi.org/10.13140/RG.2.2.11422.00321/1, entwickelt im BMBF-geförderten Projekt "Netzwerk Q 4.0 in MV-Schwerin".
Chatbot-Orakel deuten: eine Aufgabe für Menschen
Die Antworten von Chatbots klingen meist logisch, sind aber nicht immer korrekt und häufig (zunächst) recht unkonkret. Anwender*innen müssen deshalb über Knowhow im Themenfeld der Anfrage verfügen, damit Sie die Antworten bewerten können. Wenn diese Voraussetzung gegeben ist, dann ist erstaunlich viel möglich. So erläutert Wolfgang König von der Regionalen Koordinierungsstelle Netzwerk Q 4.0 in einem Video anschaulich im Dialog mit ChatGPT, wie die KI Ausbildner*innen bei der Umsetzung von Lernzielen nach der Bloomschen Taxonomie unterstützen kann. Der Chatbot liefert Ideen für seinen Einsatz für die Lernziel-Erreichung auf allen Stufen der Taxonomie, und zwar am Beispiel eines konkreten Fachinhalts. Im Anschluss bewertet das Programm die Qualität seiner Vorschläge und schätzt den Aufwand der nötigen Validierung durch einen Menschen.
Chatbots durch Feedback trainieren
Kompetente Anwender*innen erkennen falsche Antworten. Sie können Chatbots darauf hinweisen und sie dadurch trainieren. Darauf aufbauend können dann sinnvolle Ergebnisse entstehen. Ein Beispiel dafür zeigt ein weiteres Video von Wolfgang König, in dem ChatGPT eine Frage zwar in überzeugenden Formulierungen, aber sachlich falsch beantwortet. Nach mehrfachem Nachfragen und Korrigieren steigt die Qualität der Antworten deutlich. Das Video illustriert auch die Gefahren einer „Recherche“ mit ChatGPT – also einem Sprachmodell, das nicht für korrekte Antworten optimiert ist. Mit Stand vom Mai 2023 lassen sich die Ergebnisse verbessern, wenn ChatGPT zusammen mit dem Browser-Plugin webchatgpt.app verwendet wird.
Verwandte Artikel
![Teilnehmende im Kursraum tauschen sich aus]()
Jetzt noch schnell den EBmooc abschließen und KI im Kurs reflektieren
Wie wirkt KI auf Kursteilnehmende und wie reflektiert ist der Zugang von Erwachsenenbildner*innen? Die vierte Lektion des EBmooc 2025 widmet sich psychologischen Effekten, Bias und der verantwortungsvollen Verwendung von KI im Kurs.![Zwei Personen gestalten ein Lernangebot.]()
Wie nützlich ist KI für Instructional Design?
Eine Analyse gängiger Fachberichte zeigt: Der Einsatz von KI im Instruktionsdesign ist mit einigen Herausforderungen verbunden. Je nachdem, wie man die Technologie nutzt, kann sie aber Effizienz und Kreativität steigern.![Grafik: Laptop, dessen Bildschirm Bücherregale zeigt.]()
KI und Urheberrecht in der Bildungsarbeit
Darf KI-Output frei genutzt werden? Dürfen geschützte Werke in KI-Tools hochgeladen werden? Und muss man KI-generierte Inhalte kennzeichnen? Eine aktuelle Broschüre klärt solche und ähnliche Fragen.![]()
KI selbst hosten: Das geht auch als Erwachsenenbildner*in
Mehr Kontrolle über Modelle und Daten, weniger Abhängigkeit von großen Plattformen: Nele Hirsch zeigt Schritt für Schritt, wie die Gestaltung einer eigenen KI-Umgebung auch Nicht-Techniker*innen gelingt.![Puzzlestücke vor einem dunkelblauen Hintergrund mit einem neuronalen Netz]()
KI verstehen: Lernende agieren als Sprachmodell
Bei der Methode „HumanGPT“ schlüpfen Kursteilnehmende in die Rolle eines Sprachmodells und lernen so, wie ein KI-Chatbot funktioniert.![KI-Strategie für Einrichtungen der Erwachsenenbildung]()
Wie Erwachsenenbildungseinrichtungen ihre eigene KI-Strategie entwickeln
Mit einer klaren KI-Strategie können Bildungsanbieter die aktuellen Chancen effektiv nutzen, Risiken vermeiden und Qualität sichern. Das Institut CONEDU bietet dafür gezielte Anleitung und Begleitung.





