Social Media: Algorithmen und wie sie unser Weltbild beeinflussen

09.08.2024, Text: Miriam Klampferer, Redaktion/CONEDU
Algorithmen prägen zunehmend unseren digitalen Alltag. In Sozialen Medien bestimmen sie etwa, welche Inhalte Nutzer*innen angezeigt werden und können so politische Meinungen beeinflussen. Im Umgang damit ist Medienkompetenz gefragt.
Grafik: miteinander verbundene Social-Media-bezogene Formen wie Daumen-hoch, Daumen-runter und Herz-Symbole.
Erwachsenenbildner*innen können einiges tun, um Lernende für algorithmische Prozesse in Sozialen Medien zu sensibilisieren.
Grafik: , Unsplash+, https://unsplash.com/

Nicht erst seit der Veröffentlichung von ChatGPT nimmt Künstliche Intelligenz Einfluss auf die digitale Welt. Das gilt besonders für Online-Plattformen wie Streamingdienste, Versandhändler und Soziale Medien. Denn die Logik, nach der Inhalte dort angeordnet, gewichtet und personalisiert werden, basiert auf Algorithmen. Die Personalisierung nach Interessen hat durchaus Vorteile, birgt jedoch einige Risiken, beispielsweise in Bezug auf den Datenschutz oder die Beeinflussung politischer und gesellschaftlicher Debatten. Erwachsenenbildner*innen können hier sensibilisieren, indem sie das Bewusstsein für die Funktionsweise von Algorithmen schärfen und kritische Medienkompetenz vermitteln.

Wie algorithmische Filterung funktioniert

Soziale Medien nutzen Algorithmen, um Nutzer*innen jene Inhalte anzuzeigen, die sie mit hoher Wahrscheinlichkeit interessieren. Die Scrollgeschwindigkeit, die Verweildauer auf einzelnen Seiten, aber auch der Grad der Interaktion mit Beiträgen – diese und andere Parameter fließen in ein individuelles Nutzungsprofil ein, das die Grundlage für eine personalisierte Inhaltsanzeige bildet.

Die Ziele hinter dieser maßgeschneiderten Auswahl von Inhalten sind vor allem ökonomische: Nutzer*innen sollen dadurch möglichst lange auf der jeweiligen Plattform gehalten werden. Gleichzeitig können so Werbeanzeigen geschalten werden, die auf individuelle Interessen zugeschnitten sind.

Algorithmische Prozesse können unsere Sicht auf die Welt beeinflussen

Problematisch wird der Einsatz von Algorithmen nicht nur in Bezug auf den Datenschutz, sondern auch dort, wo er Meinungsbildung beeinflusst. Denn soziale Netzwerke werden immer mehr auch genutzt, um sich über gesellschaftliche und politische Debatten zu informieren. Während redaktionelle Medien jedoch bei der Auswahl von Inhalten auf Meinungspluralität und Faktenprüfung setzen, bewerten Soziale Medien die Relevanz stärker anhand von Reaktionen des Publikums. Zudem ist oft intransparent, nach welchen spezifischen Kriterien Algorithmen Inhalte gewichten.

Algorithmen können mit bestimmten kognitiven Verzerrungen zusammenwirken – wie eine wissenschaftliche Studie von Konrad Lischka und Prof. Dr. Christian Stöcker aufzeigt. So werden etwa Inhalte, die negative Emotionen wie Wut oder Angst auslösen, häufiger geklickt und damit als relevanter bewertet. Das trägt zu ihrer Verbreitung bei. Dazu kommt, dass Algorithmen Nutzer*innen besonders jene Inhalte anzeigen, die bereits ihrer Ansicht entsprechen. Sie erhalten keinen ausgewogenen Überblick und sind sich abweichender Perspektiven zunehmend weniger bewusst.

Die Gestaltung sozialer Medien begünstigt außerdem, dass Inhalte schnell und oft allein aufgrund der Überschrift geteilt werden. Solche Beiträge begegnen bestimmten Nutzer*innen dementsprechend häufiger. Informationen, die man wiederholt wahrnimmt, werden im Nachhinein oft als wahr oder wahrscheinlich erinnert. Das gilt selbst dann, wenn es sich dabei um Verkürzungen oder sogar Desinformation handelt.

Dazu kommt, dass soziale Medien von vielen Menschen nicht nur als Informationsquelle genutzt werden, sondern auch zum Identitätsmanagement. Das bedeutet, dass Medieninhalte auch geteilt werden, um die Zugehörigkeit etwa zu einer politischen Gruppe zu betonen.

Algorithmen ethisch gestalten: eine gesellschaftliche Aufgabe

Um den negativen Auswirkungen algorithmischer Prozesse entgegenzuwirken bräuchte es mehr Transparenz von Seiten der Plattformbetreiber. Diese verfügen über detaillierte Informationen zur Funktionsweise der eingesetzten Algorithmen und haben die Möglichkeit, zu steuern, welche Parameter einbezogen und wie stark sie gewichtet werden. Obwohl Plattformbetreiber technisch in der Lage wären, Inhalte anders zu priorisieren, liegt ihr Hauptaugenmerk nicht auf der ethischen Gestaltung der Algorithmen, da sie in erster Linie gewinnorientierte Unternehmen sind.

Die Verantwortung sollte also nicht primär bei den Plattformbetreibern gesucht werden. Vor allem die Politik ist gefordert, durch Regulierungen Veränderungen anzustoßen und private Akteure zu verpflichten, entsprechende Maßnahmen zu ergreifen. Der Digital Services Act (DSA) der EU ist dabei ein wichtiger Schritt. Er soll unter anderem die Transparenz von Algorithmen und Empfehlungssystemen verbessern, damit Nutzer*innen besser nachvollziehen können, warum ihnen bestimmte Inhalte und Werbung angezeigt werden. Denn digitale Technologien – wie Social Media – entstehen nicht isoliert, sondern spiegeln Werte, Normen bzw. wirtschaftliche Interessen wider. Es ist eine gesellschaftliche Aufgabe im Zuge des technologischen Fortschritts Gemeinwohl, Ethik und Menschenrechte ins Zentrum zu stellen.

Lösungsansätze für eine kompetente Mediennutzung

Die Erwachsenenbildung spielt eine entscheidende Rolle dabei, Lernende für algorithmische Prozesse zu sensibilisieren. Studien zeigen, dass sich viele Nutzer*innen weder der Existenz von Empfehlungs- und Sortieralgorithmen bewusst sind, noch verstehen, wie diese funktionieren. Daher können Bildungsmaßnahmen darauf abzielen, ein grundlegendes Verständnis für diese Mechanismen zu vermitteln. Ein Online-Kurs des KI-Campus zur Daten- und Algorithmenethik leistet dazu einen wichtigen Beitrag. Er vermittelt ein Grundverständnis darüber, wie Algorithmen zu Entscheidungen kommen und welche Daten dabei verarbeitet werden.

Weiters ist es wichtig, zu thematisieren, wie Soziale Medien funktionieren und welche Kommunikationsmechanismen dahinterstecken. Dies umfasst auch ein Bewusstsein für psychologische Effekte, die in diesem Zusammenhang eine Rolle spielen.

Zudem geht es darum, zu zeigen, dass spezifische Interessen den Einsatz von Technik mitbestimmen und dass es Alternativen gibt – z.B. dezentrale Netzwerke wie Mastodon.

Schließlich sollte ein Bewusstsein für die Verbreitung von Desinformation geschaffen werden. Erwachsenenbildner*innen können aufzeigen, wie Lernende Inhalte prüfen und Falschinformation gegebenenfalls erkennen können. Der Journalist Simon Hurtz vom Social-Media-Watchblog warnt jedoch davor, ein generelles Misstrauen zu schüren, denn das könnte auch auf authentische Inhalte übergreifen. Eine übermäßige Skepsis könnte dazu führen, dass reale journalistische Berichterstattung ebenfalls infrage gestellt wird. Kritische Medienkompetenz ist entscheidend, um zwischen echten und falschen Informationen unterscheiden zu können.

Weitere Informationen
Creative Commons License Dieser Text ist unter CC BY 4.0 International lizenziert.

Verwandte Artikel