Empathie oder Effizienz? Ethische KI-Anwendungen in Beratungssettings

Die gegenwärtigen Entwicklungen rund um Künstliche Intelligenz machen auch vor der Bildungs- und Berufsberatung nicht halt. KI-Tools wie Chatbots oder Avatare bieten neue Möglichkeiten, doch längst nicht alle Anwendungen sind ethisch unbedenklich oder aus professioneller Sicht sinnvoll. Nach welchen Kriterien können KI-Anwendungen in Beratungssettings bewertet werden? Zwei deutsche Wissenschaftlerinnen diskutierten diese Frage 2024 in einem kritischen Beitrag der Zeitschrift für Weiterbildungsforschung.
Grundpfeiler für den KI-Einsatz
Soll KI in Beratungssettings eingesetzt werden, sind der Publikation zufolge mehrere grundlegende Aspekte zu beachten: Jegliche Verwendung von KI muss Ratsuchenden transparent kommuniziert werden und sie müssen die Möglichkeit bekommen, diese auch abzulehnen. Zudem sind datenethische Prinzipien wie Datenschutz und Datensparsamkeit unbedingt einzuhalten.
Warum KI-Tools menschliche Beratung nicht ersetzen können
Vor einem möglichen Einsatz von KI im Beratungskontext, gilt es, ganz grundlegend festzulegen, was gute Beratung überhaupt ausmacht und welche Aufgaben KI dabei aufgrund ihrer Funktionsweise (nicht) erfüllen kann:
Im Beratungsprozess ist es etwa wichtig, zu bewussten und kontextbezogenen Entscheidungen zu kommen – eine Kompetenz, die KI-Tools nicht von vornherein besitzen. Sie operieren nach Wahrscheinlichkeitsprinzipien, haben kein Bewusstsein und können ihren Output oft nicht begründen, so die Autorinnen. Es bleibt daher fraglich, ob KI-Tools Menschen bei wegweisenden Entscheidungen, wie der Berufswahl, überhaupt unterstützen können.
Beratung lebt zudem von einem Beziehungsprozess und setzt im Dialog mit Ratsuchenden eine grundsätzliche Ergebnisoffenheit voraus. Neben fachlichem Wissen sind vor allem Erfahrung und Reflexionsfähigkeit unverzichtbar – Fähigkeiten, die Chatbots und Avatare aufgrund ihrer technischen Beschaffenheit nicht aufweisen.
Die fehlende Reflexionsfähigkeit von KI führt zu einem weiteren Problem: Berater*innen können kritisch hinterfragen, inwiefern sie durch ihre eigene Sozialisation gesellschaftliche Stereotype reproduzieren. KI-Tools hingegen haben kein Bewusstsein und können ihren Output nicht auf Stereotypisierungen prüfen. Ihre Antworten basieren auf Trainingsdaten, die selbst von verschiedenen Biases geprägt sind.
Gleichzeitig können KI-Tools bei Ratsuchenden leicht den Eindruck von Interesse, Vertrauenswürdigkeit und Empathie erwecken. Dieser Eindruck täuscht jedoch, da KI-Tools nur entsprechend konfiguriert werden, um gezielt ein positives Nutzungserlebnis zu ermöglichen. Diese Tendenz ist aus Beratungssicht besonders bedenklich, weil es bei guter Beratung oft gerade um das Nicht-Bestätigen einer Erwartungshaltung geht. Dadurch soll die Eigenverantwortung der Ratsuchenden gestärkt werden, so die Publikation.
Institutionelle Strategien für einen verantwortungsvollen KI-Einsatz
Der Fachkräftemangel stellt auch Beratungsinstitutionen vor große Herausforderungen. Trotzdem warnen die Autorinnen davor, Aufgaben rein aus Effizienzgründen an eine KI zu übertragen. KI-Tools können Routineaufgaben wie administrative Tätigkeiten übernehmen und dadurch mehr Zeit für die Arbeit mit Ratsuchenden schaffen. Auch in reinen Informationsgesprächen können sie unter Umständen unterstützend eingesetzt werden. Es gilt jedoch, kritisch abzuwägen, wo der Einsatz von KI wirklich vertretbar ist. Beratungsangebote sollten immer aus der Perspektive der Ratsuchenden geplant werden. Das erfordert u.a. eine kontinuierliche Auseinandersetzung mit den Konsequenzen, die der Einsatz KI-gesteuerter Instrumente mit sich bringt.
In der Ausbildung gilt es, (zukünftige) Berater*innen auf die Anforderungen der digitalen und KI-gestützten Beratung vorzubereiten. Denn wenn KI tatsächlich in Beratungssettings eingesetzt werden soll, müssen Berater*innen auch über die technische Funktionsweise der Tools Bescheid wissen, um potenzielle Verzerrungen zu erkennen und gemeinsam mit den Ratsuchenden zu reflektieren. Um das zu ermöglichen, sind die Lehrpläne von Studiengängen und Weiterbildungen entsprechend anzupassen.
Stereotype Daten, stereotype Ergebnisse: Normalisiert KI Ungerechtigkeiten?
Aus gesellschaftlicher Perspektive gilt es der Publikation zufolge, ethische Bedenken wegen der Vorurteile in den Trainingsdaten von KI-gestützten Tools zu berücksichtigen. Besonders problematisch ist, dass Vorurteile gegenüber ohnehin benachteiligten Gruppen verstärkt werden und so Ungerechtigkeiten „normalisiert“ werden könnten. Ein KI-Einsatz wäre nur dann vertretbar, wenn verwendete Datensätze möglichst frei von Stereotypisierungen wären. Um soziale Gerechtigkeitslücken zu schließen, sind außerdem auf allen Ebenen Diskurse über den Sinn, Nutzen und die Grenzen von KI sowie über Steuerungs- und Kontrollmechanismen notwendig.
Eine weitere Gefahr beim Einsatz von KI liegt darin, dass Ratsuchende möglicherweise lediglich als Informationsquelle und nicht als komplexe Individuen wahrgenommen werden. Beratung sollte sich nicht auf rein wahrscheinlichkeitsbasierte Vorhersagen stützen, sondern auch die Unvorhersehbarkeit und Einzigartigkeit menschlichen Handelns anerkennen. Es gilt, zu vermeiden, dass Beratungsprozesse zu sehr standardisiert und Ratsuchende in vorhersehbare Muster gedrängt werden.
Insgesamt fällt das Urteil der beiden Wissenschaftlerinnen vorsichtig bis skeptisch aus. Leser*innen gewinnen den Eindruck, dass KI in der Beratung derzeit nur für ausgewählte Zwecke und nur unterstützend einsetzbar ist.
Über die Publikation
Der Artikel „Wenn der Chatbot weiß, wo es lang geht – Ethische Fragen und Kriterien zum Einsatz von KI-gestützten Beratungssettings“ wurde im März 2024 von Kristina Kieslinger und Kira Nierobisch veröffentlicht. Beide sind Universitätsprofessorinnen an der Katholischen Hochschule Mainz und spezialisiert auf Ethik (Kieslinger) bzw. auf Methoden der Sozialen Arbeit (Nierobisch). Der Beitrag ist in der Zeitschrift für Weiterbildungsforschung erschienen und unter der Lizenz CC BY 4.0 International frei verfügbar.

Verwandte Artikel
Digitale Lernangebote qualitätsvoll entwickeln
Die Publikation von k.o.s thematisiert Qualitätsanforderungen an digitale Lernangebote in der Erwachsenenbildung. Sie eignet sich als praxisorientiertes Nachschlagewerk in der Planungs- und Entwicklungsphase.D21 Digital Index: Aufholbedarf bei digitalen und KI-Kompetenzen
KI prägt zunehmend Alltag und Arbeitswelt, wird jedoch vor allem von Menschen mit hohem Bildungsgrad genutzt, so der aktuelle D21-Bericht aus Deutschland. Digitale Resilienz wird künftig noch wichtiger.Was der AI Gap für die Erwachsenenbildung bedeutet
Ungleichheiten im Zugang und der Nutzung digitaler Technologien könnten sich durch den Einsatz von KI verstärken. Um dem entgegenzuwirken, ist es wichtig, KI-Kompetenz inklusiv und gerecht zu fördern.Die Potenziale von Micro-Credentials für die Erwachsenenbildung
Micro-Credentials machen Kompetenzen sichtbar – doch wie verbreitet sind sie bereits und welche technischen Anforderungen sind damit verbunden? Eine aktuelle Publikation untersucht das Potenzial der Mikro-Zertifikate für die Erwachsenenbildung.Rezension: KI interaktiv im Seminar nutzen
Das Buch „33 KI-Methoden für den Seminareinsatz“ von Gert Schilling zeigt praxisnah, wie Trainer*innen Textgeneratoren wie ChatGPT einsetzen können, um Lernangebote abwechslungsreich zu gestalten.Digitale Zusammenarbeit 4.0: ein Buch für die Praxis
Im zweiten Band einer aktuellen Publikation gibt Jöran Muuß-Merholz Tipps für eine gelungene Zusammenarbeit. Die vorgestellten Praktiken umfassen das Dokumenten-Management, die Terminplanung und die Kommunikation mit Kolleg*innen.