Social Media: Algorithmen und wie sie unser Weltbild beeinflussen
Nicht erst seit der Veröffentlichung von ChatGPT nimmt Künstliche Intelligenz Einfluss auf die digitale Welt. Das gilt besonders für Online-Plattformen wie Streamingdienste, Versandhändler und Soziale Medien. Denn die Logik, nach der Inhalte dort angeordnet, gewichtet und personalisiert werden, basiert auf Algorithmen. Die Personalisierung nach Interessen hat durchaus Vorteile, birgt jedoch einige Risiken, beispielsweise in Bezug auf den Datenschutz oder die Beeinflussung politischer und gesellschaftlicher Debatten. Erwachsenenbildner*innen können hier sensibilisieren, indem sie das Bewusstsein für die Funktionsweise von Algorithmen schärfen und kritische Medienkompetenz vermitteln.
Wie algorithmische Filterung funktioniert
Soziale Medien nutzen Algorithmen, um Nutzer*innen jene Inhalte anzuzeigen, die sie mit hoher Wahrscheinlichkeit interessieren. Die Scrollgeschwindigkeit, die Verweildauer auf einzelnen Seiten, aber auch der Grad der Interaktion mit Beiträgen – diese und andere Parameter fließen in ein individuelles Nutzungsprofil ein, das die Grundlage für eine personalisierte Inhaltsanzeige bildet.
Die Ziele hinter dieser maßgeschneiderten Auswahl von Inhalten sind vor allem ökonomische: Nutzer*innen sollen dadurch möglichst lange auf der jeweiligen Plattform gehalten werden. Gleichzeitig können so Werbeanzeigen geschalten werden, die auf individuelle Interessen zugeschnitten sind.
Algorithmische Prozesse können unsere Sicht auf die Welt beeinflussen
Problematisch wird der Einsatz von Algorithmen nicht nur in Bezug auf den Datenschutz, sondern auch dort, wo er Meinungsbildung beeinflusst. Denn soziale Netzwerke werden immer mehr auch genutzt, um sich über gesellschaftliche und politische Debatten zu informieren. Während redaktionelle Medien jedoch bei der Auswahl von Inhalten auf Meinungspluralität und Faktenprüfung setzen, bewerten Soziale Medien die Relevanz stärker anhand von Reaktionen des Publikums. Zudem ist oft intransparent, nach welchen spezifischen Kriterien Algorithmen Inhalte gewichten.
Algorithmen können mit bestimmten kognitiven Verzerrungen zusammenwirken – wie eine wissenschaftliche Studie von Konrad Lischka und Prof. Dr. Christian Stöcker aufzeigt. So werden etwa Inhalte, die negative Emotionen wie Wut oder Angst auslösen, häufiger geklickt und damit als relevanter bewertet. Das trägt zu ihrer Verbreitung bei. Dazu kommt, dass Algorithmen Nutzer*innen besonders jene Inhalte anzeigen, die bereits ihrer Ansicht entsprechen. Sie erhalten keinen ausgewogenen Überblick und sind sich abweichender Perspektiven zunehmend weniger bewusst.
Die Gestaltung sozialer Medien begünstigt außerdem, dass Inhalte schnell und oft allein aufgrund der Überschrift geteilt werden. Solche Beiträge begegnen bestimmten Nutzer*innen dementsprechend häufiger. Informationen, die man wiederholt wahrnimmt, werden im Nachhinein oft als wahr oder wahrscheinlich erinnert. Das gilt selbst dann, wenn es sich dabei um Verkürzungen oder sogar Desinformation handelt.
Dazu kommt, dass soziale Medien von vielen Menschen nicht nur als Informationsquelle genutzt werden, sondern auch zum Identitätsmanagement. Das bedeutet, dass Medieninhalte auch geteilt werden, um die Zugehörigkeit etwa zu einer politischen Gruppe zu betonen.
Algorithmen ethisch gestalten: eine gesellschaftliche Aufgabe
Um den negativen Auswirkungen algorithmischer Prozesse entgegenzuwirken bräuchte es mehr Transparenz von Seiten der Plattformbetreiber. Diese verfügen über detaillierte Informationen zur Funktionsweise der eingesetzten Algorithmen und haben die Möglichkeit, zu steuern, welche Parameter einbezogen und wie stark sie gewichtet werden. Obwohl Plattformbetreiber technisch in der Lage wären, Inhalte anders zu priorisieren, liegt ihr Hauptaugenmerk nicht auf der ethischen Gestaltung der Algorithmen, da sie in erster Linie gewinnorientierte Unternehmen sind.
Die Verantwortung sollte also nicht primär bei den Plattformbetreibern gesucht werden. Vor allem die Politik ist gefordert, durch Regulierungen Veränderungen anzustoßen und private Akteure zu verpflichten, entsprechende Maßnahmen zu ergreifen. Der Digital Services Act (DSA) der EU ist dabei ein wichtiger Schritt. Er soll unter anderem die Transparenz von Algorithmen und Empfehlungssystemen verbessern, damit Nutzer*innen besser nachvollziehen können, warum ihnen bestimmte Inhalte und Werbung angezeigt werden. Denn digitale Technologien – wie Social Media – entstehen nicht isoliert, sondern spiegeln Werte, Normen bzw. wirtschaftliche Interessen wider. Es ist eine gesellschaftliche Aufgabe im Zuge des technologischen Fortschritts Gemeinwohl, Ethik und Menschenrechte ins Zentrum zu stellen.
Lösungsansätze für eine kompetente Mediennutzung
Die Erwachsenenbildung spielt eine entscheidende Rolle dabei, Lernende für algorithmische Prozesse zu sensibilisieren. Studien zeigen, dass sich viele Nutzer*innen weder der Existenz von Empfehlungs- und Sortieralgorithmen bewusst sind, noch verstehen, wie diese funktionieren. Daher können Bildungsmaßnahmen darauf abzielen, ein grundlegendes Verständnis für diese Mechanismen zu vermitteln. Ein Online-Kurs des KI-Campus zur Daten- und Algorithmenethik leistet dazu einen wichtigen Beitrag. Er vermittelt ein Grundverständnis darüber, wie Algorithmen zu Entscheidungen kommen und welche Daten dabei verarbeitet werden.
Weiters ist es wichtig, zu thematisieren, wie Soziale Medien funktionieren und welche Kommunikationsmechanismen dahinterstecken. Dies umfasst auch ein Bewusstsein für psychologische Effekte, die in diesem Zusammenhang eine Rolle spielen.
Zudem geht es darum, zu zeigen, dass spezifische Interessen den Einsatz von Technik mitbestimmen und dass es Alternativen gibt – z.B. dezentrale Netzwerke wie Mastodon.
Schließlich sollte ein Bewusstsein für die Verbreitung von Desinformation geschaffen werden. Erwachsenenbildner*innen können aufzeigen, wie Lernende Inhalte prüfen und Falschinformation gegebenenfalls erkennen können. Der Journalist Simon Hurtz vom Social-Media-Watchblog warnt jedoch davor, ein generelles Misstrauen zu schüren, denn das könnte auch auf authentische Inhalte übergreifen. Eine übermäßige Skepsis könnte dazu führen, dass reale journalistische Berichterstattung ebenfalls infrage gestellt wird. Kritische Medienkompetenz ist entscheidend, um zwischen echten und falschen Informationen unterscheiden zu können.
Verwandte Artikel
Empathie oder Effizienz? Ethische KI-Anwendungen in Beratungssettings
Können KI-Tools in der Bildungs- und Berufsberatung bedenkenlos eingesetzt werden? Eine aktuelle Publikation beleuchtet diese Frage aus unterschiedlichen Perspektiven und bietet Leitlinien für Berater*innen und Institutionen.ChatGPT im Gespräch: Potenzial für Live-Online-Meetings?
Live-Übersetzung, Co-Moderation oder inhaltliche Unterstützung: Der erweiterte Audiomodus von ChatGPT bietet einige Möglichkeiten für den Einsatz in Online-Meetings.KI-Promptlabor: Rasch und leicht kreative Inhalte erstellen
Entwürfe für Trainingsplanung, Icebreaker, Lernerfolgskontrollen – all das lässt sich mit kurzen Angaben im KI-Promptlabor generieren. Verschiedene Mini-Tools liefern Ideen für Erwachsenenbildner*innen.Unboxing AI for AE: KI-Serie wird zur Lernressource
Mit Jahresende 2024 schließt die KI-Serie auf erwachsenenbildung.at in ihrer aktuellen Form ab. Interessierte können sich jedoch auch künftig in ihrem eigenen Tempo mit den vorgestellten KI-Anwendungen vertraut machen.KI reflektieren mit Tools
Wer KI kompetent und verantwortungsvoll anwenden möchte, muss den Einsatz von KI kritisch reflektieren. Verschiedene Tools können diese Reflexion unterstützen: online wie offline.Ressourcen-KIT: KI für die Erwachsenenbildung
EPALE Deutschland fasst in einer Ressourcensammlung ausgewählte Beiträge zusammen, die dabei helfen, KI in der Bildungsarbeit einzusetzen.