Social Media: Algorithmen und wie sie unser Weltbild beeinflussen
Nicht erst seit der Veröffentlichung von ChatGPT nimmt Künstliche Intelligenz Einfluss auf die digitale Welt. Das gilt besonders für Online-Plattformen wie Streamingdienste, Versandhändler und Soziale Medien. Denn die Logik, nach der Inhalte dort angeordnet, gewichtet und personalisiert werden, basiert auf Algorithmen. Die Personalisierung nach Interessen hat durchaus Vorteile, birgt jedoch einige Risiken, beispielsweise in Bezug auf den Datenschutz oder die Beeinflussung politischer und gesellschaftlicher Debatten. Erwachsenenbildner*innen können hier sensibilisieren, indem sie das Bewusstsein für die Funktionsweise von Algorithmen schärfen und kritische Medienkompetenz vermitteln.
Wie algorithmische Filterung funktioniert
Soziale Medien nutzen Algorithmen, um Nutzer*innen jene Inhalte anzuzeigen, die sie mit hoher Wahrscheinlichkeit interessieren. Die Scrollgeschwindigkeit, die Verweildauer auf einzelnen Seiten, aber auch der Grad der Interaktion mit Beiträgen – diese und andere Parameter fließen in ein individuelles Nutzungsprofil ein, das die Grundlage für eine personalisierte Inhaltsanzeige bildet.
Die Ziele hinter dieser maßgeschneiderten Auswahl von Inhalten sind vor allem ökonomische: Nutzer*innen sollen dadurch möglichst lange auf der jeweiligen Plattform gehalten werden. Gleichzeitig können so Werbeanzeigen geschalten werden, die auf individuelle Interessen zugeschnitten sind.
Algorithmische Prozesse können unsere Sicht auf die Welt beeinflussen
Problematisch wird der Einsatz von Algorithmen nicht nur in Bezug auf den Datenschutz, sondern auch dort, wo er Meinungsbildung beeinflusst. Denn soziale Netzwerke werden immer mehr auch genutzt, um sich über gesellschaftliche und politische Debatten zu informieren. Während redaktionelle Medien jedoch bei der Auswahl von Inhalten auf Meinungspluralität und Faktenprüfung setzen, bewerten Soziale Medien die Relevanz stärker anhand von Reaktionen des Publikums. Zudem ist oft intransparent, nach welchen spezifischen Kriterien Algorithmen Inhalte gewichten.
Algorithmen können mit bestimmten kognitiven Verzerrungen zusammenwirken – wie eine wissenschaftliche Studie von Konrad Lischka und Prof. Dr. Christian Stöcker aufzeigt. So werden etwa Inhalte, die negative Emotionen wie Wut oder Angst auslösen, häufiger geklickt und damit als relevanter bewertet. Das trägt zu ihrer Verbreitung bei. Dazu kommt, dass Algorithmen Nutzer*innen besonders jene Inhalte anzeigen, die bereits ihrer Ansicht entsprechen. Sie erhalten keinen ausgewogenen Überblick und sind sich abweichender Perspektiven zunehmend weniger bewusst.
Die Gestaltung sozialer Medien begünstigt außerdem, dass Inhalte schnell und oft allein aufgrund der Überschrift geteilt werden. Solche Beiträge begegnen bestimmten Nutzer*innen dementsprechend häufiger. Informationen, die man wiederholt wahrnimmt, werden im Nachhinein oft als wahr oder wahrscheinlich erinnert. Das gilt selbst dann, wenn es sich dabei um Verkürzungen oder sogar Desinformation handelt.
Dazu kommt, dass soziale Medien von vielen Menschen nicht nur als Informationsquelle genutzt werden, sondern auch zum Identitätsmanagement. Das bedeutet, dass Medieninhalte auch geteilt werden, um die Zugehörigkeit etwa zu einer politischen Gruppe zu betonen.
Algorithmen ethisch gestalten: eine gesellschaftliche Aufgabe
Um den negativen Auswirkungen algorithmischer Prozesse entgegenzuwirken bräuchte es mehr Transparenz von Seiten der Plattformbetreiber. Diese verfügen über detaillierte Informationen zur Funktionsweise der eingesetzten Algorithmen und haben die Möglichkeit, zu steuern, welche Parameter einbezogen und wie stark sie gewichtet werden. Obwohl Plattformbetreiber technisch in der Lage wären, Inhalte anders zu priorisieren, liegt ihr Hauptaugenmerk nicht auf der ethischen Gestaltung der Algorithmen, da sie in erster Linie gewinnorientierte Unternehmen sind.
Die Verantwortung sollte also nicht primär bei den Plattformbetreibern gesucht werden. Vor allem die Politik ist gefordert, durch Regulierungen Veränderungen anzustoßen und private Akteure zu verpflichten, entsprechende Maßnahmen zu ergreifen. Der Digital Services Act (DSA) der EU ist dabei ein wichtiger Schritt. Er soll unter anderem die Transparenz von Algorithmen und Empfehlungssystemen verbessern, damit Nutzer*innen besser nachvollziehen können, warum ihnen bestimmte Inhalte und Werbung angezeigt werden. Denn digitale Technologien – wie Social Media – entstehen nicht isoliert, sondern spiegeln Werte, Normen bzw. wirtschaftliche Interessen wider. Es ist eine gesellschaftliche Aufgabe im Zuge des technologischen Fortschritts Gemeinwohl, Ethik und Menschenrechte ins Zentrum zu stellen.
Lösungsansätze für eine kompetente Mediennutzung
Die Erwachsenenbildung spielt eine entscheidende Rolle dabei, Lernende für algorithmische Prozesse zu sensibilisieren. Studien zeigen, dass sich viele Nutzer*innen weder der Existenz von Empfehlungs- und Sortieralgorithmen bewusst sind, noch verstehen, wie diese funktionieren. Daher können Bildungsmaßnahmen darauf abzielen, ein grundlegendes Verständnis für diese Mechanismen zu vermitteln. Ein Online-Kurs des KI-Campus zur Daten- und Algorithmenethik leistet dazu einen wichtigen Beitrag. Er vermittelt ein Grundverständnis darüber, wie Algorithmen zu Entscheidungen kommen und welche Daten dabei verarbeitet werden.
Weiters ist es wichtig, zu thematisieren, wie Soziale Medien funktionieren und welche Kommunikationsmechanismen dahinterstecken. Dies umfasst auch ein Bewusstsein für psychologische Effekte, die in diesem Zusammenhang eine Rolle spielen.
Zudem geht es darum, zu zeigen, dass spezifische Interessen den Einsatz von Technik mitbestimmen und dass es Alternativen gibt – z.B. dezentrale Netzwerke wie Mastodon.
Schließlich sollte ein Bewusstsein für die Verbreitung von Desinformation geschaffen werden. Erwachsenenbildner*innen können aufzeigen, wie Lernende Inhalte prüfen und Falschinformation gegebenenfalls erkennen können. Der Journalist Simon Hurtz vom Social-Media-Watchblog warnt jedoch davor, ein generelles Misstrauen zu schüren, denn das könnte auch auf authentische Inhalte übergreifen. Eine übermäßige Skepsis könnte dazu führen, dass reale journalistische Berichterstattung ebenfalls infrage gestellt wird. Kritische Medienkompetenz ist entscheidend, um zwischen echten und falschen Informationen unterscheiden zu können.
Nachrichten-Serie über Kritische Medienkompetenz
Der kritische und konstruktive Umgang mit Medien ist Voraussetzung für eine selbstbestimmte Teilhabe an der (digitalen) Welt. Kritisches Medienhandeln ist damit mehr als die Fähigkeit, sich über die Geschehnisse in der Welt zu informieren. Es ist zentral für Lernen, Kommunikation, Partizipation und zur Meinungsbildung. Die Nachrichten-Serie „Kritische Medienkompetenz“ versammelt aktuelle Nachrichten und Hintergrundinformationen zum Thema.
Verwandte Artikel
![]()
Formatentwicklung mit KI: Erasmus+ Projekt entwickelt Lernstrecke
Ziel des Projekts von CONEDU, Qua-LiS NRW und AEWB ist ein kostenloser Selbstlernkurs für Erwachsenenbildner*innen, der zeigt, wie man digitale Lernformate mit KI-Unterstützung entwickelt.![]()
Leitfaden: Promptathons als kreatives Lernformat einsetzen
Promptathons eignen sich als kollaboratives Peer-Learning-Format in der Erwachsenenbildung. Der Leitfaden der Corporate Learning Community unterstützt bei der Planung und Durchführung.![Vier Lernende arbeiten gemeinsam vor einem Laptop und tauschen sich aus.]()
DISKIT Lernprogramm absolvieren und Medienbildung in der Praxis stärken
Teilnehmende des kostenlosen Online-Lernprogramms DISKIT erwerben in verschiedenen Modulen die Skills von Digitalkompetenztrainer*innen. Lernenden Medien- und Informationskompetenz zu vermitteln, ist einer der thematischen Schwerpunkte.![Teilnehmende im Kursraum tauschen sich aus]()
Jetzt noch schnell den EBmooc abschließen und KI im Kurs reflektieren
Wie wirkt KI auf Kursteilnehmende und wie reflektiert ist der Zugang von Erwachsenenbildner*innen? Die vierte Lektion des EBmooc 2025 widmet sich psychologischen Effekten, Bias und der verantwortungsvollen Verwendung von KI im Kurs.![Zwei Personen gestalten ein Lernangebot.]()
Wie nützlich ist KI für Instructional Design?
Eine Analyse gängiger Fachberichte zeigt: Der Einsatz von KI im Instruktionsdesign ist mit einigen Herausforderungen verbunden. Je nachdem, wie man die Technologie nutzt, kann sie aber Effizienz und Kreativität steigern.![Grafik: Laptop, dessen Bildschirm Bücherregale zeigt.]()
KI und Urheberrecht in der Bildungsarbeit
Darf KI-Output frei genutzt werden? Dürfen geschützte Werke in KI-Tools hochgeladen werden? Und muss man KI-generierte Inhalte kennzeichnen? Eine aktuelle Broschüre klärt solche und ähnliche Fragen.





