Empathie oder Effizienz? Ethische KI-Anwendungen in Beratungssettings

Die gegenwärtigen Entwicklungen rund um Künstliche Intelligenz machen auch vor der Bildungs- und Berufsberatung nicht halt. KI-Tools wie Chatbots oder Avatare bieten neue Möglichkeiten, doch längst nicht alle Anwendungen sind ethisch unbedenklich oder aus professioneller Sicht sinnvoll. Nach welchen Kriterien können KI-Anwendungen in Beratungssettings bewertet werden? Zwei deutsche Wissenschaftlerinnen diskutierten diese Frage 2024 in einem kritischen Beitrag der Zeitschrift für Weiterbildungsforschung.
Grundpfeiler für den KI-Einsatz
Soll KI in Beratungssettings eingesetzt werden, sind der Publikation zufolge mehrere grundlegende Aspekte zu beachten: Jegliche Verwendung von KI muss Ratsuchenden transparent kommuniziert werden und sie müssen die Möglichkeit bekommen, diese auch abzulehnen. Zudem sind datenethische Prinzipien wie Datenschutz und Datensparsamkeit unbedingt einzuhalten.
Warum KI-Tools menschliche Beratung nicht ersetzen können
Vor einem möglichen Einsatz von KI im Beratungskontext, gilt es, ganz grundlegend festzulegen, was gute Beratung überhaupt ausmacht und welche Aufgaben KI dabei aufgrund ihrer Funktionsweise (nicht) erfüllen kann:
Im Beratungsprozess ist es etwa wichtig, zu bewussten und kontextbezogenen Entscheidungen zu kommen – eine Kompetenz, die KI-Tools nicht von vornherein besitzen. Sie operieren nach Wahrscheinlichkeitsprinzipien, haben kein Bewusstsein und können ihren Output oft nicht begründen, so die Autorinnen. Es bleibt daher fraglich, ob KI-Tools Menschen bei wegweisenden Entscheidungen, wie der Berufswahl, überhaupt unterstützen können.
Beratung lebt zudem von einem Beziehungsprozess und setzt im Dialog mit Ratsuchenden eine grundsätzliche Ergebnisoffenheit voraus. Neben fachlichem Wissen sind vor allem Erfahrung und Reflexionsfähigkeit unverzichtbar – Fähigkeiten, die Chatbots und Avatare aufgrund ihrer technischen Beschaffenheit nicht aufweisen.
Die fehlende Reflexionsfähigkeit von KI führt zu einem weiteren Problem: Berater*innen können kritisch hinterfragen, inwiefern sie durch ihre eigene Sozialisation gesellschaftliche Stereotype reproduzieren. KI-Tools hingegen haben kein Bewusstsein und können ihren Output nicht auf Stereotypisierungen prüfen. Ihre Antworten basieren auf Trainingsdaten, die selbst von verschiedenen Biases geprägt sind.
Gleichzeitig können KI-Tools bei Ratsuchenden leicht den Eindruck von Interesse, Vertrauenswürdigkeit und Empathie erwecken. Dieser Eindruck täuscht jedoch, da KI-Tools nur entsprechend konfiguriert werden, um gezielt ein positives Nutzungserlebnis zu ermöglichen. Diese Tendenz ist aus Beratungssicht besonders bedenklich, weil es bei guter Beratung oft gerade um das Nicht-Bestätigen einer Erwartungshaltung geht. Dadurch soll die Eigenverantwortung der Ratsuchenden gestärkt werden, so die Publikation.
Institutionelle Strategien für einen verantwortungsvollen KI-Einsatz
Der Fachkräftemangel stellt auch Beratungsinstitutionen vor große Herausforderungen. Trotzdem warnen die Autorinnen davor, Aufgaben rein aus Effizienzgründen an eine KI zu übertragen. KI-Tools können Routineaufgaben wie administrative Tätigkeiten übernehmen und dadurch mehr Zeit für die Arbeit mit Ratsuchenden schaffen. Auch in reinen Informationsgesprächen können sie unter Umständen unterstützend eingesetzt werden. Es gilt jedoch, kritisch abzuwägen, wo der Einsatz von KI wirklich vertretbar ist. Beratungsangebote sollten immer aus der Perspektive der Ratsuchenden geplant werden. Das erfordert u.a. eine kontinuierliche Auseinandersetzung mit den Konsequenzen, die der Einsatz KI-gesteuerter Instrumente mit sich bringt.
In der Ausbildung gilt es, (zukünftige) Berater*innen auf die Anforderungen der digitalen und KI-gestützten Beratung vorzubereiten. Denn wenn KI tatsächlich in Beratungssettings eingesetzt werden soll, müssen Berater*innen auch über die technische Funktionsweise der Tools Bescheid wissen, um potenzielle Verzerrungen zu erkennen und gemeinsam mit den Ratsuchenden zu reflektieren. Um das zu ermöglichen, sind die Lehrpläne von Studiengängen und Weiterbildungen entsprechend anzupassen.
Stereotype Daten, stereotype Ergebnisse: Normalisiert KI Ungerechtigkeiten?
Aus gesellschaftlicher Perspektive gilt es der Publikation zufolge, ethische Bedenken wegen der Vorurteile in den Trainingsdaten von KI-gestützten Tools zu berücksichtigen. Besonders problematisch ist, dass Vorurteile gegenüber ohnehin benachteiligten Gruppen verstärkt werden und so Ungerechtigkeiten „normalisiert“ werden könnten. Ein KI-Einsatz wäre nur dann vertretbar, wenn verwendete Datensätze möglichst frei von Stereotypisierungen wären. Um soziale Gerechtigkeitslücken zu schließen, sind außerdem auf allen Ebenen Diskurse über den Sinn, Nutzen und die Grenzen von KI sowie über Steuerungs- und Kontrollmechanismen notwendig.
Eine weitere Gefahr beim Einsatz von KI liegt darin, dass Ratsuchende möglicherweise lediglich als Informationsquelle und nicht als komplexe Individuen wahrgenommen werden. Beratung sollte sich nicht auf rein wahrscheinlichkeitsbasierte Vorhersagen stützen, sondern auch die Unvorhersehbarkeit und Einzigartigkeit menschlichen Handelns anerkennen. Es gilt, zu vermeiden, dass Beratungsprozesse zu sehr standardisiert und Ratsuchende in vorhersehbare Muster gedrängt werden.
Insgesamt fällt das Urteil der beiden Wissenschaftlerinnen vorsichtig bis skeptisch aus. Leser*innen gewinnen den Eindruck, dass KI in der Beratung derzeit nur für ausgewählte Zwecke und nur unterstützend einsetzbar ist.
Über die Publikation
Der Artikel „Wenn der Chatbot weiß, wo es lang geht – Ethische Fragen und Kriterien zum Einsatz von KI-gestützten Beratungssettings“ wurde im März 2024 von Kristina Kieslinger und Kira Nierobisch veröffentlicht. Beide sind Universitätsprofessorinnen an der Katholischen Hochschule Mainz und spezialisiert auf Ethik (Kieslinger) bzw. auf Methoden der Sozialen Arbeit (Nierobisch). Der Beitrag ist in der Zeitschrift für Weiterbildungsforschung erschienen und unter der Lizenz CC BY 4.0 International frei verfügbar.

Verwandte Artikel
Selbstorganisiert lernen mit CustomGPTs
Benutzerdefinierte KI-Chatbots sind vor allem mit Blick auf personalisierte Lerndialoge beachtenswert und könnten eigenverantwortete Lernaktivitäten fördern.KI-Verordnung umfassend erklärt: Kommentar zum AI-Act
Eine neue Publikation der beiden Wiener Juristen Lukas Feiler und Nikolas Forgó hilft, die Auswirkungen des europäischen AI-Act besser zu verstehen – auch im Bildungsbereich.Erfolgreich Online-Barcamps organisieren und durchführen
Das Institut CONEDU hat neue Schulungsmaterialien für Organisator*innen von Online-Barcamps veröffentlicht. Ein Praxisleitfaden und zwei Lernvideos sind kostenlos und als offene Bildungsressourcen verfügbar.Neue Zielgruppen durch Online-Veranstaltungen erschließen?
Eine Erhebung unter Teilnehmenden von Online-Angeboten deutscher Volkshochschulen zeigt: Online-Veranstaltungen können die Reichweite erhöhen und sprechen auch bestehende Zielgruppen an.KI-Kompetenzen in Österreich: Studie ernüchtert
Wie fit sind die Österreicher*innen in Hinblick auf Künstliche Intelligenz? Eine Sonderausgabe des Digital Skills Barometer gibt Aufschluss darüber.Step by step: So schaffen Firmen den Einstieg ins E-Learning
Ein Whitepaper dient als Schritt-für-Schritt-Anleitung, wenn es um Bildungsstrategie, Lerninhalte und technische Infrastruktur für das betriebliche E-Learning geht.