Täuschend menschlich? KI-Anthropomorphismus und seine Folgen

Anthropomorphismus bezeichnet die Tendenz, nichtmenschlichen Wesen oder Systemen menschliche Eigenschaften zuzuschreiben. Dieser Mechanismus ist tief in der menschlichen Wahrnehmung verankert und hilft dabei, Zusammenhänge und (vermeintliche) Absichten in der Umwelt zu erkennen. Besonders im Umgang mit Künstlicher Intelligenz kann das weitreichende Konsequenzen haben, da auf Maschinen Eigenschaften projiziert werden, die sie gar nicht besitzen.
Warum KI-Systeme menschlich wirken
Besonders in der Interaktion mit Large Language Models zeigt sich dieser anthropomorphe Reflex deutlich: Ihr Sprachoutput verleitet dazu, ihnen menschliche Eigenschaften zuzuschreiben. Auch die Nutzung des Personalpronomens „ich“, die Fähigkeit, frühere Gesprächsinhalte wieder aufzugreifen sowie die Simulation von Empathie und Verständnis lassen KI-Systeme menschlicher wirken. So geben KI-Chatbots etwa Floskeln wie „na klar“ oder „gerne“ aus, die nichts Inhaltliches beitragen, sondern lediglich der Herstellung einer Verbindung zwischen vermeintlichen Gesprächspartner*innen dienen.
Die blitzschnelle Reaktionszeit, mit der Output generiert wird, führt außerdem zu einer Art Belohnungseffekt im Gehirn, der die Interaktion mit KI besonders reizvoll macht. Multimodale Schnittstellen verstärken diesen Effekt weiter: Die Integration von gesprochener Sprache und Video – wie beispielsweise im Voice-Mode von ChatGPT – intensiviert die Illusion einer realen, menschlichen Interaktion. Damit wird es zunehmend schwieriger, sich bewusst zu halten, dass KI-Systeme keine eigenen Gedanken, Absichten oder Emotionen besitzen, sondern Antworten lediglich auf Basis statistischer Wahrscheinlichkeiten generieren.
Wie wirken sich anthropomorphe Effekte von Sprachmodellen aus?
Dass anthropomorphe Effekte nicht nur Theorie sind, sondern längst in der Praxis beobachtet werden können, belegen aktuelle Forschungsarbeiten, die den Einfluss von Sprache, Stimme und Wortwahl auf das menschliche Vertrauen in KI-Systeme untersuchen.
Eine Studie aus den USA etwa analysierte, wie sprachliche Merkmale die Wahrnehmung von und das Vertrauen in Large Language Models beeinflussen. Die Ergebnisse zeigten, dass die Kombination aus Text und Audioausgabe bei den Teilnehmenden zu einer stärkeren Anthropomorphisierung des Sprachmodells führte und damit einhergehend auch das Vertrauen in die Genauigkeit der generierten Informationen stieg. Die Verwendung des Personalpronomens „ich“ verstärkte diesen Effekt in gewissen Kontexten.
Auch die Übereinstimmung des Selbstbilds der Nutzer*innen mit der wahrgenommene „Persönlichkeit“ des Systems – die sogenannte Selbstkongruenz - kann das das Vertrauen in KI-Systeme erhöhen.
Eine weitere Studie zu KI-Sprachassistenten zeigte, dass anthropomorphe Merkmale wie menschenähnliche Stimmen, interaktive Reaktionen und die Simulation emotionaler Rückmeldungen bei Nutzer*innen das Gefühl sozialer Einbindung steigerten und Einsamkeit verringerten. Das erhöhte zugleich die empfundene Nützlichkeit der KI-Assistenten.
Herausforderungen für Bildung und Beratung
Der Anthropomorphismus von KI-Chatbots birgt erhebliche Risiken für zwischenmenschliche Beziehungen. Wie Forscher*innen des MIT Media Lab feststellten, sind Sprachmodelle darauf ausgelegt, ein angenehmes Nutzungserlebnis zu bieten. Das tun sie, indem sie unabhängig vom Verhalten der Nutzer*innen stets positive Rückmeldungen geben. Sie simulieren Empathie, reagieren sofort, unterbrechen nie und erzeugen außerdem Inhalte, die exakt auf individuelle Vorlieben zugeschnitten sind.
Wenn Lernende und Ratsuchende zunehmend an diese Art der Interaktion gewöhnt werden, besteht die Gefahr, dass sich dadurch ihre Erwartungen an Lehrende und Berater*innen verändern. Daraus könnte eine Haltung entstehen, die statt einer echten zwischenmenschlichen Auseinandersetzung vorrangig die Bestätigung der eigenen Ansichten sucht. Das wiederum widerspricht dem Ziel von Bildung, kritisches Denken, Perspektivenwechsel und den konstruktiven Umgang mit Differenzen zu fördern.
Dass KI-Systeme immer menschlicher wirken, ist kein Zufall, sondern das Ergebnis gezielter Marketing- und Usability-Strategien. Entwickler*innen setzen teilweise bewusst auf Design-Elemente, die Anthropomorphisierung begünstigen, um KI-Systeme attraktiver und unverzichtbarer erscheinen zu lassen. Dabei sind sie sich oft durchaus der Risiken bewusst. OpenAI selbst weist etwa darauf hin, dass der Voice Mode ChatGPT noch menschlicher wirken lässt und das Risiko emotionaler Abhängigkeit erhöhen könnte.
Gerade der Erwachsenenbildung kommt eine wichtige Rolle zu, um für gezielte Designstrategien und ihre Auswirkungen zu sensibilisieren. Lernende sollten verstehen, dass der scheinbar einfühlsame und stets verfügbare KI-Chatbot keine echte Empathie besitzt, sondern nach Unternehmens-Interessen entwickelt wurde. Wer sich dieser Mechanismen bewusst ist, kann reflektierter mit KI umgehen und das Risiko einer Abhängigkeit reduzieren.
- KI-Stimmen und emotionale Abhängigkeit (Englisch)
- Anthropomorphisierung von KI: Chancen und Risiken (Englisch)
- Studie zu anthropomorphen Merkmalen von KI-Sprachassistenten (Englisch)
- KI und menschliche Psyche: wie uns die Wahrnehmung täuscht
- Der Einfluss anthropomorpher Merkmale auf das Vertrauen in KI-Sprachmodelle
- KI macht potenziell süchtig (Englisch)
- Warum es nicht genügt, KI-Texte nachzubessern
- KI-Tools in der Erwachsenenbildung: anwenden und reflektieren

Verwandte Artikel
Moodle meistern: so gelingt der Einstieg
Wie lassen sich mit Moodle gute Lernangebote gestalten? Ein interaktives Video zeigt übersichtlich, wie auch Einsteiger*innen das Learning Management System ganz unkompliziert nutzen können.OER für die Erwachsenenbildung – Teil 1: Grundlagen
Welche Materialien dürfen Erwachsenenbildner*innen frei nutzen – und wo lauern rechtliche Fallstricke? Das erste Video einer dreiteiligen Serie führt in offene Bildungsressourcen ein und zeigt, warum sie so wertvoll sind.Selbstorganisiert lernen mit CustomGPTs
Benutzerdefinierte KI-Chatbots sind vor allem mit Blick auf personalisierte Lerndialoge beachtenswert und könnten eigenverantwortete Lernaktivitäten fördern.ChatGPT im Gespräch: Potenzial für Live-Online-Meetings?
Live-Übersetzung, Co-Moderation oder inhaltliche Unterstützung: Der erweiterte Audiomodus von ChatGPT bietet einige Möglichkeiten für den Einsatz in Online-Meetings.KI reflektieren mit Tools
Wer KI kompetent und verantwortungsvoll anwenden möchte, muss den Einsatz von KI kritisch reflektieren. Verschiedene Tools können diese Reflexion unterstützen: online wie offline.Inhalte visualisieren mit KI
Grafiken, Diagramme oder Mindmaps lassen sich mit den richtigen KI-Tools einfach erstellen. Sie eignen sich gut fürs Brainstorming und zum visuellen Aufbereiten von Daten und Lerninhalten.