Rechnen oder leben? Warum es nicht genügt, KI-Texte nachzubessern

31.01.2024, Text: Birgit Aschemann, Redaktion/CONEDU
Der Output generativer KI-Tools wirkt oft wie von Menschen erstellt. Wer Künstliche Intelligenz in der Erwachsenenbildung als Ressource nutzt, sollte sich daher die grundlegenden Unterschiede zwischen Mensch und KI bewusst machen.
Das Bild eines Baumes wird auf aus Blöcken zusammengesetzt dargestellt. Daneben dasselbe Bild in einer realistischeren Form.
Künstliche Intelligenz generiert in Sekundenschnelle ein Ergebnis auf Basis von Berechnungen. Die Unterschiede zu menschlichen Fähigkeiten sind dabei fundamental.
Grafik: CC BY, Linus Zoll & Google DeepMind, bearbeitet von CONEDU, https://betterimagesofai.org

„Es war mir eine Freude, Ihnen heute assistieren zu dürfen. Sollten Sie weitere Fragen haben oder Unterstützung benötigen, zögern Sie bitte nicht, mich wieder zu kontaktieren. Ich wünsche Ihnen viel Erfolg bei Ihren Vorhaben.“

So oder ähnlich endet ein Dialog mit einem KI-Chatbot, nachdem er sekundenschnell einen vernünftig klingenden Textoutput generiert hat. Kein Wunder, dass wir beeindruckt sind, uns verstanden oder serviciert fühlen – und die Rechenmaschine mit einer verständigen und wohlwollenden Instanz verwechseln. Unsere bisherige Erfahrung gibt keine andere Erklärung her. Dass KI-Chatbots mit einer ausgeprägten Höflichkeitsmodellierung allgemein zugänglich sind, ist u.a. den Fortschritten im Natural Language Processing zu verdanken. Dahinter stehen die Gewinnabsichten der Modellbetreiber, die ihre Schnittstellen verkaufen wollen. Sie lassen den Output der Maschinen so menschenähnlich wie möglich wirken, damit Kund*innen ihnen vertrauen und sich wohlfühlen.

Wer diese Tools im Bildungskontext nutzt, tut gut daran, sich den Unterschied zwischen Mensch und Maschine immer wieder bewusst zu machen.

KI-Leistung: generiert, errechnet, irreal

Generative KI generiert Texte, Bilder, Präsentationen, Audios, Videos anhand ihrer Trainingsdaten – und je nach Konfiguration zusätzlich aus dem Internet. Tokens wie z.B. Silben und Wörter werden blitzschnell zu neuem Output zusammengestellt, den wir als Information begreifen und nutzen. Texte werden verändert oder neu generiert und wirken richtig oder „wahr“. Das gilt auch für Prüfungsfragen, Ratschläge oder Prozessentwürfe für die reale Welt. Die Rechenmaschine versteht von alldem nichts. Sie kennt nicht den Sinngehalt dessen, was sie schreibt. Sie kennt ja auch keine Realwelt und daher auch kein Kriterium „Wahrheit“. Sie kennt kein Leben und Zusammenleben, keine Zeit, keinen Tod. Sie kennt nur Wahrscheinlichkeiten und rechnet. Wer also einen wohlklingenden und durchaus hilfreichen KI-Output liest, sollte sich dennoch bewusst sein: es ist nicht das, wonach es aussieht.

Menschsein: gelebt, gefühlt, real

Nur Menschen (und Tiere) kennen eine physische Welt und eine soziale Umwelt. Menschen kennen verschiedene Lebensperspektiven und -hintergründe, können Kontexte unterscheiden und beurteilen, Verbindungen zu Realerfahrungen herstellen und einschätzen, was in welchem sozialen Zusammenhang wirkt. Sie betrachten die Welt vor dem Hintergrund von Körper, Zeit, Leben und Tod. Sie können in der Welt Fakten prüfen. Sie sind der Welt (mehr oder weniger) durch Ethik verpflichtet, sind sich ihrer selbst bewusst, sind (mehr oder weniger) empathisch oder emotional. Nur sie können handeln, und nur sie müssen mit den Konsequenzen des Handelns leben.

Grafik: CC BY CONEDU

Rechenleistung für das Leben nutzen: eine menschliche Aufgabe

Die Leistungen von KI und die spezifischen menschlichen Erfahrungen stehen in sinnvollen Beziehungen zueinander. Wenn ein KI-Tool Textoutput liefert, müssen Menschen vorab steuern, worauf es dabei ankommt. Menschen hinterfragen die verwendeten Ausgangsdaten und das Ergebnis. Menschen beurteilen die Sinnhaftigkeit des Outputs, seine Plausibilität und seine ethischen Implikationen. Sie prüfen Wahrheitsgehalt und Wirkung. Sie stellen Verbindungen zu Realerfahrungen her.

Wer aber einer KI nach einem minimalen Prompt einen Erstentwurf überlässt, sollte sich bewusst sein, dass es in diesem Erstentwurf die KI ist, die Relevanzen setzt. Und wir Menschen unterliegen dem „automation bias“ – wir neigen dazu, uns der KI anzuschließen, der wir besondere Objektivität zuschreiben. Es ist auch bequem, der KI zu vertrauen - und sie antwortet ja so nett. Inhaltlich liefert sie aber immer eine errechnete Durchschnittsantwort. Und die ist nicht immer die beste Option, um im realen Leben in einer bestimmten Situation etwas zu bewirken. Es genügt daher nicht, den KI-Output nachzubessern. Genaues Prompten (mit Definition von Relevanzen und Kontexten) ist das Minimum. Generative KI-Tools sind dafür da, ihre Leistung gezielt zu steuern.

KI als Aufruf zum Denken

Im Gesamten gesehen geht es im Umgang mit KI um viel mehr als genaues Prompten. Das eigene menschliche Urteilsvermögen, die eigene Folgenabschätzung, das eigene wache und kritische Denken sind dringender nötig denn je.

Glaubt man den Werbeslogans, wurden KI-Anwendungen in Umlauf gebracht, um uns Arbeit abzunehmen. Als Bildungswissenschaftlerin (die viele KI-Tools nutzt) möchte ich dagegenhalten: KI ist der größte Aufruf, sich des eigenen Denkens und der eigenen Vernunft zu bedienen, der bislang von einer digitalen Entwicklung ausging. KI ist ein Aufruf zum Denken und keine Einladung, sich das Denken (ab)nehmen zu lassen.

Weitere Informationen:
Creative Commons License Dieser Text ist unter CC BY 4.0 International lizenziert.

Verwandte Artikel