Täuschend menschlich? KI-Anthropomorphismus und seine Folgen

07.03.2025, Text: Miriam Klampferer, Redaktion/CONEDU
KI-Modelle können den Eindruck erwecken, menschliche Eigenschaften zu haben. Das stärkt das Vertrauen in ihren Output und kann zu emotionaler Abhängigkeit führen. In der Bildung gilt es, für diese Mechanismen zu sensibilisieren.
Grafik: Roboter-Chatbot hinter Computer
KI-Stimmen oder personalisierte Antworten können dazu verleiten, Sprachmodelle als menschliche Gesprächspartner wahrzunehmen.
Grafik: , Philip Oroni (Unsplash +), https://unsplash.com

Anthropomorphismus bezeichnet die Tendenz, nichtmenschlichen Wesen oder Systemen menschliche Eigenschaften zuzuschreiben. Dieser Mechanismus ist tief in der menschlichen Wahrnehmung verankert und hilft dabei, Zusammenhänge und (vermeintliche) Absichten in der Umwelt zu erkennen. Besonders im Umgang mit Künstlicher Intelligenz kann das weitreichende Konsequenzen haben, da auf Maschinen Eigenschaften projiziert werden, die sie gar nicht besitzen.

Warum KI-Systeme menschlich wirken

Besonders in der Interaktion mit Large Language Models zeigt sich dieser anthropomorphe Reflex deutlich: Ihr Sprachoutput verleitet dazu, ihnen menschliche Eigenschaften zuzuschreiben. Auch die Nutzung des Personalpronomens „ich“, die Fähigkeit, frühere Gesprächsinhalte wieder aufzugreifen sowie die Simulation von Empathie und Verständnis lassen KI-Systeme menschlicher wirken. So geben KI-Chatbots etwa Floskeln wie „na klar“ oder „gerne“ aus, die nichts Inhaltliches beitragen, sondern lediglich der Herstellung einer Verbindung zwischen vermeintlichen Gesprächspartner*innen dienen.

Die blitzschnelle Reaktionszeit, mit der Output generiert wird, führt außerdem zu einer Art Belohnungseffekt im Gehirn, der die Interaktion mit KI besonders reizvoll macht. Multimodale Schnittstellen verstärken diesen Effekt weiter: Die Integration von gesprochener Sprache und Video – wie beispielsweise im Voice-Mode von ChatGPT – intensiviert die Illusion einer realen, menschlichen Interaktion. Damit wird es zunehmend schwieriger, sich bewusst zu halten, dass KI-Systeme keine eigenen Gedanken, Absichten oder Emotionen besitzen, sondern Antworten lediglich auf Basis statistischer Wahrscheinlichkeiten generieren.

Wie wirken sich anthropomorphe Effekte von Sprachmodellen aus?

Dass anthropomorphe Effekte nicht nur Theorie sind, sondern längst in der Praxis beobachtet werden können, belegen aktuelle Forschungsarbeiten, die den Einfluss von Sprache, Stimme und Wortwahl auf das menschliche Vertrauen in KI-Systeme untersuchen.

Eine Studie aus den USA etwa analysierte, wie sprachliche Merkmale die Wahrnehmung von und das Vertrauen in Large Language Models beeinflussen. Die Ergebnisse zeigten, dass die Kombination aus Text und Audioausgabe bei den Teilnehmenden zu einer stärkeren Anthropomorphisierung des Sprachmodells führte und damit einhergehend auch das Vertrauen in die Genauigkeit der generierten Informationen stieg. Die Verwendung des Personalpronomens „ich“ verstärkte diesen Effekt in gewissen Kontexten.

Auch die Übereinstimmung des Selbstbilds der Nutzer*innen mit der wahrgenommene „Persönlichkeit“ des Systems – die sogenannte Selbstkongruenz - kann das das Vertrauen in KI-Systeme erhöhen.

Eine weitere Studie zu KI-Sprachassistenten zeigte, dass anthropomorphe Merkmale wie menschenähnliche Stimmen, interaktive Reaktionen und die Simulation emotionaler Rückmeldungen bei Nutzer*innen das Gefühl sozialer Einbindung steigerten und Einsamkeit verringerten. Das erhöhte zugleich die empfundene Nützlichkeit der KI-Assistenten.

Herausforderungen für Bildung und Beratung

Der Anthropomorphismus von KI-Chatbots birgt erhebliche Risiken für zwischenmenschliche Beziehungen. Wie Forscher*innen des MIT Media Lab feststellten, sind Sprachmodelle darauf ausgelegt, ein angenehmes Nutzungserlebnis zu bieten. Das tun sie, indem sie unabhängig vom Verhalten der Nutzer*innen stets positive Rückmeldungen geben. Sie simulieren Empathie, reagieren sofort, unterbrechen nie und erzeugen außerdem Inhalte, die exakt auf individuelle Vorlieben zugeschnitten sind.

Wenn Lernende und Ratsuchende zunehmend an diese Art der Interaktion gewöhnt werden, besteht die Gefahr, dass sich dadurch ihre Erwartungen an Lehrende und Berater*innen verändern. Daraus könnte eine Haltung entstehen, die statt einer echten zwischenmenschlichen Auseinandersetzung vorrangig die Bestätigung der eigenen Ansichten sucht. Das wiederum widerspricht dem Ziel von Bildung, kritisches Denken, Perspektivenwechsel und den konstruktiven Umgang mit Differenzen zu fördern.

Dass KI-Systeme immer menschlicher wirken, ist kein Zufall, sondern das Ergebnis gezielter Marketing- und Usability-Strategien. Entwickler*innen setzen teilweise bewusst auf Design-Elemente, die Anthropomorphisierung begünstigen, um KI-Systeme attraktiver und unverzichtbarer erscheinen zu lassen. Dabei sind sie sich oft durchaus der Risiken bewusst. OpenAI selbst weist etwa darauf hin, dass der Voice Mode ChatGPT noch menschlicher wirken lässt und das Risiko emotionaler Abhängigkeit erhöhen könnte.

Gerade der Erwachsenenbildung kommt eine wichtige Rolle zu, um für gezielte Designstrategien und ihre Auswirkungen zu sensibilisieren. Lernende sollten verstehen, dass der scheinbar einfühlsame und stets verfügbare KI-Chatbot keine echte Empathie besitzt, sondern nach Unternehmens-Interessen entwickelt wurde. Wer sich dieser Mechanismen bewusst ist, kann reflektierter mit KI umgehen und das Risiko einer Abhängigkeit reduzieren.

Weitere Informationen:
Creative Commons License Dieser Text ist unter CC BY 4.0 International lizenziert.

Verwandte Artikel