Impressum | Sitemap | English

Herausforderungen für Informationsvielfalt, Meinungsbildung und gesellschaftliche Teilhabe

Helmut Peissl (2018)

Im Folgenden sollen einige aktuelle Phänomene wie Filterblasen, "Fake News", Hasssprache oder Big Data definiert und diskutiert werden. Zur Frage wie sich diese Aspekte auf Prozesse der Meinungsbildung und damit das Funktionieren unserer Demokratie auswirken gibt es teilweise widersprüchliche Einschätzungen und Befunde.

 

Filterblase

Der Begriff Filterblase wurde 2011 vom Internetaktivisten Eli Pariser (2011) mit seinem gleichnamigen Buch "Filter Bubble. Wie wir im Internet entmündigt werden" geprägt. Er argumentiert darin, dass durch die Optimierung der Algorithmen der großen Internetfirmen auf die jeweiligen persönlichen Vorlieben der NutzerInnen Filterblasen entstehen und die NutzerInnen nicht mehr mit Informationen konfrontiert werden, die ihre Weltsicht herausfordern oder erweitern könnten. Dieser Effekt wirkt sich bei der Nutzung unterschiedlicher Dienste aus - seien es über Facebook vermittelte Nachrichten oder von Google angezeigte Suchresultate - die jeweils auf persönliche Vorlieben hin angepasst werden.

 

Laut Pariser entstehe die Filterblase, weil Suchmaschinen wie Google mit der personalisierten Suche ab 2009 oder Social Media Plattformen wie Facebook versuchen, algorithmisch vorauszusagen, welche Informationen einzelne BenutzerInnen jeweils auffinden möchten. Diese automatisierten Auswahlentscheidungen basieren auf den verfügbaren persönlichen Informationen über die BenutzerInnen und umfassen Daten zum Standort (über IP-Adresse), zum verwendeten Gerät, zum verwendeten Browser, zur Suchgeschichte und zum Klickverhalten. Daraus resultiert laut Pariser eine Isolation gegenüber Informationen, die nicht dem Standpunkt des Benutzers oder der Benutzerin entsprechen. Pariser analysiert anhand seines eigenen Nutzungsverhaltens, dass es den NutzerInnen auf Social Media-Plattformen wie Facebook schwer gemacht wird, an Informationen zu kommen, die nicht zu den persönlichen Vorlieben passen. Dafür sorgen zuverlässig die Auswahlalgorithmen der jeweiligen Plattform.


Wie viel Einfluss dieser Effekt tatsächlich hat, wird in Fachkreisen kontrovers diskutiert, er ist aber nicht zu verleugnen. Verstärkt wird diese Einengung durch das häufig zu beobachtende Suchverhalten, bei dem sich die NutzerInnen mit den jeweils ersten Suchergebnissen zufriedengeben. Um dem entgegenzuwirken, sollten UserInnen einerseits die wichtigsten Rechercheregeln beherrschen und andererseits imstande sein zu erkennen, was "echte" und was "gekaufte" Ergebnisse sind. Denn es gibt sowohl bei Suchmaschinen als auch bei Social Media-Plattformen Anzeigen, für deren bevorzugte Platzierung die Seitenbetreiber bezahlen. Sie sind also eigentlich Werbung. Sich dieser oft gut versteckten Werbeformen bewusst zu sein und Inhalte dementsprechend einzuschätzen, kann dabei helfen, derartige Verzerrungen zu verringern.


Die UNESCO (2018) spricht im Rahmen ihres Berichts World Trends in Freedom of Expression and Media Development 2017 von "polarisierter Vielfalt" (polarized pluralism), weil einerseits die Menge verfügbarer Informationen enorm wächst, aber andererseits die Menschen abhängig von ihren Interessen und Gruppenzugehörigkeiten nur auf eine spezifische Auswahl zugreifen.


Zur Auseinandersetzung mit der Auswirkung der Algorithmen von Suchmaschinen ist es für Lernende sinnvoll sich mit unterschiedlichen Suchmaschinen auseinanderzusetzen und die Ergebnisse, aber auch die Form der Anzeige zu vergleichen. Suchmaschinen wie StartPage oder DuckDuckGo greifen auch auf Google zurück, verhindern aber, dass persönliche Daten und damit auch die eigene Suchgeschichte an Google übermittelt werden. Zudem werden zu den Suchergebnissen direkte Links zu den jeweiligen Inhalten angezeigt und nicht "Google-Links", die bei jeder Nutzung nochmals Userdaten an Google liefern.

Echokammer-Effekt

Dass Menschen gerne Medien und Inhalte nutzen, die sie in ihrer Meinung bestätigen, ist nicht neu. Durch die Vermittlung von Inhalten über "Intermediäre" wie Facebook, Twitter und Google (Plattformen, die keine eigenen Inhalte erstellen, heute aber zentrale Vermittler von Inhalten an die UserInnen sind) gewinnt diese Logik aber eine beunruhigende Beschleunigung und Ausweitung. Aus ihrem ökonomischen Interesse haben die Algorithmen der Plattformen die Aufgabe, primär Inhalte anzuzeigen, die für möglichst viele Interaktionen (Clicks) sorgen. Es ist also auch der kommerzielle Charakter der Intermediären, der den Echokammer-Effekt verstärkt und Nachrichten innerhalb jener Gruppen, die ohnehin einer bestimmten Meinung oder politischen Richtung anhängen, kursieren lässt.

 

Inhalte mit kontroversen Positionen zum selben Thema erreichen die UserInnen kaum und wenn, werden sie von ihnen kaum oder gar nicht mehr wahrgenommen. Das wiederum hat mit psychologischen Aspekten zu tun, die Zygmunt Bauman (2017) in der aktuellen Tendenz zur Tribalisierung begründet sieht.

 

Als Reaktion auf die soziale Verunsicherung, die aufgrund der Globalisierung und zunehmenden Undurchschaubarkeit der Welt durch die Auswirkungen der neoliberalen Ideologie entsteht, wird Sicherheit wieder vermehrt in vertrauten Strukturen gesucht.

 

Als Konsequenz dessen sind immer weniger Menschen bereit, sich mit divergierenden Meinungen zu konfrontieren oder auseinanderzusetzen. Baumann (2017, S. 67) sieht darin auch ein ganz grundsätzliches gesellschaftliches Problem: "Sobald die Aufteilung in 'uns' und 'sie' einmal in dieser Form vorgenommen ist, kann es bei einer Begegnung mit dem Antagonisten nicht mehr um Verständigung, sondern nur noch darum gehen, neue Beweise dafür zu entdecken oder zu erfinden, dass ein Verständigungsversuch jeder Vernunft widerspricht und keinesfalls in Frage kommt."


Jennifer Edmond, die zu Digital Humanities forscht, sieht auch einen Zusammenhang zwischen der heute oft zwanghaften Vorstellung, alles Wahrnehmbare in digitale Informationen zu verwandeln, und der abnehmenden Fähigkeit zum Dialog. In einem Interview in Der Standard (Pumhösel 2018) meint sie: "Als Menschen haben wir viele Arten, unsere Welt zu erschließen: durch Riechen, durch Berühren, durch Hören. Wenn immer mehr in digitale Information gepresst wird, lassen diese Fähigkeiten nach. Maschinelle Übersetzungen lassen einen kulturellen Aspekt von Sprache verlorengehen. Mark Zuckerberg glaubt, dass Kommunikation von Sprache zurückgehalten wird. Ich glaube, Sprache ist die Seele der Kommunikation." Und sie vergleicht das Informationsmenü mit der Idee ausgewogener gesunder Ernährung: "Auch bei Informationen braucht es eine ausgewogene Versorgung. Wir müssen nicht nur unseren eigenen Bias verstehen, sondern auch den Bias der Plattform, die wir nutzen. Wenn wir in unserem Newsfeed nur Meinungen haben, die uns bestätigen, bekommen wir das gute Gefühl, dass wir mit der Welt übereinstimmen. Die Grenzen der Filterblasen zu überwinden ist ein menschlicher, kein technologischer Prozess."


Bisher gibt es zu diesen Effekten nur wenige aussagekräftige empirische Studien - eine Tatsache, die auch darin begründet ist, dass die Algorithmen von den Intermediären als Betriebsgeheimnisse gehütet werden. Das Massachusetts Institut of Technology (MIT) veröffentlichte 2018 die Ergebnisse einer großangelegten Untersuchung (vgl. Meyer 2018), bei der die Verbreitung und Wahrnehmung von 126.000 Geschichten von drei Millionen Twitter-NutzerInnen im Zeitraum von 10 Jahren analysiert wurden. Auf Grundlage der ausgewerteten Interaktionsmuster und Intensität kam das Forschungsteam zum Ergebnis, dass sich Falschmeldungen wesentlich rascher und weiter ausbreiteten als korrekte Inhalte. Die Richtigstellung oder Aufdeckung der Falschmeldungen hatte hingegen nur wenig Einfluss auf die Bereitschaft der Nutzer, ihre Meinung zu ändern.

Hate Speech

Die Begriffe Hate Speech oder Hasssprache werden heute meist mit aggressiver und diffamierender Sprache im Internet verbunden. Hasssprache ist aber kein neues Phänomen und schöpft sein Potential meist aus dem gesellschaftlichen und politischen Klima und Umgang untereinander. Die Dynamik der digitalen Kommunikation beschleunigt und verdichtet die Verbreitung.


So stellte etwa schon der Sprachwissenschaftler Victor Klemperer (2010, S. 26), der das Naziregime nur mit Hilfe von Freunden überlebte, in seiner Schrift "LTI - Lingua Tertii Imperii - Sprache des 'Dritten Reiches'" fest: "Worte können sein wie winzige Arsendosen. Sie werden unbemerkt verschluckt, sie scheinen keine Wirkung zu tun, und nach einiger Zeit ist die Giftwirkung doch da."


Zur Definition von Hate Speech hält Sailer-Wlasits (2016) fest: "Hasssprache bezieht sich auf miteinander verknüpfte Bedeutungsräume und umfasst auch solche sprachlichen Äußerungen, die ethnische, religiöse bzw. gesellschaftliche Minderheiten betreffen und von diesen als kränkend bzw. diffamierend aufgefasst werden können bzw. den Tatbestand der Verhetzung erfüllen." Auch Sailer-Wlasits betont den Zusammenhang von heute gängigen Begriffen mit solchen aus der NS-Sprache, etwa wenn aus dem Ausdruck "gesundes Volksempfinden" heute der "gesunde Menschenverstand" geworden ist. Aber auch für den Begriff „Überfremdung" sieht er einen klaren Bezug zum rassistischen Vokabular des Faschismus. Eine andere Ausprägung von Hasssprache ist die sprachliche Aufrüstung in Politik und Medien, wenn aus dem "Schutz für Flüchtende" der "Schutz vor Flüchtenden" und in der Folge "Schutzmaßnahmen gegen Flüchtlinge" werden.


Diese winzigen Arsendosen, wie Klemperer sie nennt, haben den politisch-gesellschaftlichen Diskurs an vielen Orten auch schon vor dem Entstehen von Social Media-Plattformen durchdrungen. So hat etwa in Kärnten die Hetze gegen die slowenische Sprachminderheit auch nach 1945 angehalten und in spezifischen Kontexten nie aufgehört.


Der Sprachwissenschaftler Bernd Matouschek beschäftigte sich 1999 in seiner Publikation "Böse Worte?" mit Sprache und Diskriminierung (Matouschek 1999). Herausgegeben wurde der Band von Terezija Stoisits, die hier auch persönliche Erfahrungen einbringen konnte. War sie doch als Abgeordnete der Grünen laufend der Hasssprache - vor allem von Seiten der FPÖ-Abgeordneten ausgesetzt. Judith Butler veröffentlichte 1997 "Hass spricht. Zur Politik des Performativen", das erst 2006 auf Deutsch übersetzt wurde (Butler 2006). Hasssprache ist kein neues Phänomen. Die neuen Kommunikationsmöglichkeiten, einfach zugängliche Foren oder Social Media-Plattformen, beschleunigen und erleichtern die Verbreitung von Hasssprache und das Thema erfährt so auch eine stärkere Präsenz in der Öffentlichen Wahrnehmung.


Mit den Besonderheiten und Auswirkungen von Hass im Netz hat sich in Österreich vor allem die Journalistin Ingrid Brodnig (2016) intensiv beschäftigt. Sie weist dabei unter anderem auf den Hass Online-Enthemmungs-Effekt (nach John Suler) hin, der besagt, dass Anonymität und Unsichtbarkeit im digitalen Raum dazu führen, dass sich AkteurInnen sicherer und enthemmter fühlen als in anderen Kommunikationssituationen. Viele gehen auch davon aus, dass sie nicht identifizierbar sind. Ein weiterer Aspekt ist die Asynchronität, in der die Kommunikationsakte geschehen, ist es doch problemlos möglich, einen hasserfüllten Kommentar abzugeben, ohne die Reaktionen darauf erleben zu müssen. Brodnig nennt das "emotionale Fahrerflucht" (Brodnig 2016, S. 14).


Die Enthemmtheit in der Kommunikation hat auch damit zu tun, dass das Gegenüber selten persönlich bekannt ist. Das führt zu Phantasievorstellungen, in denen alle Projektionen von Gegnerschaft oder unangenehmen Eigenschaften Platz haben. Die Trennung zwischen Online- und Offline-Charakter verleitet dazu, die Online-Kommunikation als Spiel ohne Konsequenz zu betrachten. Nicht zuletzt fehlt in Foren oder "sozialen Netzwerken" oft eine Autorität in Form einer Moderation und hassvollen Äußerungen wird selten vehement begegnet.


Die rasante Verbreitung von emotionalisierenden Postings wird zudem durch die Logik sozialer Netzwerke verstärkt. Denn Postings mit mehr Interaktionen werden höher gereiht und bei mehr UserInnen angezeigt. Dadurch bekommen polarisierende Postings - etwa von populistischen PolitikerInnen - viel leichter mehr Aufmerksamkeit als sachliche Meldungen. Dass Facebook oder Google neuerdings bereit sind, Projekte zu unterstützen, die dem Hass im Netz entgegentreten, muss leider als wenig wirksame Kosmetik identifiziert werden, lebt doch ihr Geschäftsmodell von der Maximierung der Interaktionen.


Im Kampf gegen dieses Phänomen ist es auch wichtig zu wissen, aus welchen Motivationen heraus hasserfüllte Inhalte ins Netz gestellt werden. Brodnig (2016, S. 75) unterscheidet etwa zwischen "Trollen" und "Glaubenskriegern" und betont, dass diesen jeweils unterschiedlich zu begegnen wäre. Denn auch wenn beide Gruppen mit rationalen Argumenten kaum zu erreichen sind, können Trolle immerhin ausgebremst werden, indem man ihnen die Aufmerksamkeit entzieht und ihre Provokationen ignoriert.

 

Trolle und Glaubenskrieger nach Brodnig (Grafik: CONEDU 2018, auf https://erwachsenenbildung.at, auf Basis von Brodnig 2016, S. 76)

 

Meinungsfreiheit vs. Schutz vor Hate Speech

Die Zunahme von Hass im Netz auf Facebook, Twitter und anderen Plattformen führte zu teilweise heftigen Diskussion um die Frage, welche Verantwortung die Intermediären für die Inhalte ihrer UserInnen haben. Wann sollten Inhalte gelöscht oder UserInnen blockiert werden? Besonders in Deutschland wurde diese Debatte sehr vehement geführt, weil dort die Intermediäre 2017 gesetzlich verpflichtet wurden, betroffene Inhalte zu löschen. Auch wenn diese Regelung auf den ersten Blick sinnvoll erscheint, steht sie im Widerspruch zum verfassungsrechtlich gesicherten Recht auf Meinungsfreiheit, wie sie im Artikel 10 der Europäischen Menschenrechtskonvention verankert ist:


"(1) Jedermann hat Anspruch auf freie Meinungsäußerung. Dieses Recht schließt die Freiheit der Meinung und die Freiheit zum Empfang und zur Mitteilung von Nachrichten oder Ideen ohne Eingriffe öffentlicher Behörden und ohne Rücksicht auf Landesgrenzen ein. Dieser Artikel schließt nicht aus, dass die Staaten Rundfunk-, Lichtspiel- oder Fernsehunternehmen einem Genehmigungsverfahren unterwerfen."


Dieses Recht darf zwar von den Staaten unter bestimmten Bedingungen eingeschränkt werden, etwa "... im Interesse der nationalen Sicherheit, der territorialen Unversehrtheit oder der öffentlichen Sicherheit, der Aufrechterhaltung der Ordnung und der Verbrechensverhütung, des Schutzes der Gesundheit und der Moral ...", darüber muss in der Regel aber eine befugte Instanz des Rechtsstaates befinden und nicht private Unternehmen wie Facebook oder Google.


In Österreich gab es mehrere Verfahren gegen ForenbetreiberInnen und Intermediäre, um an die VerfasserInnen von Inhalten zu gelangen, die unter das Verbotsgesetz fallen oder Persönlichkeitsrechte verletzen. In den meisten Fällen wäre das juristische Vorgehen gegen Hasssprache aufgrund der bisherigen Rechtslage bereits möglich. Aber auch im Justizbereich hinkt der Wissensstand über die Dynamik der digitalen Kommunikation nach. Auch RichterInnen sind sich nicht über die weitreichenden Folgen für die Betroffenen bewusst und verankerte Rechte werden nicht ausreichend durchgesetzt.


Die Menschenrechtsorganisation Artikel 19 hat im Rahmen des Projekts "Media Against Hate" die rechtliche Situation und die Praxis in Deutschland, Italien, Österreich, Polen, Ungarn und UK analysiert und daraus eine Reihe von Empfehlungen für Politik, das Rechtswesen, Medienverantwortliche und JournalistInnen abgeleitet. Die AutorInnen plädieren für mehr Training und Weiterbildung im Justizapparat, um ein differenziertes Behandeln unterschiedlicher Formen diskriminierender Postings zu verankern. Von Hate Speech Betroffene sollten besser geschützt und Verantwortliche vermehrt zur Rechenschaft gezogen werden. Gleichzeitig sollten der öffentliche demokratische Diskurs und das Recht auf Meinungsfreiheit aber nicht eingeschränkt werden. An Medien richtet sich explizit die Forderung, mehr unterschiedliche Stimmen aus der vielfältigen Gesellschaft zu Wort kommen zu lassen und interkulturellen Dialog zu fördern. Der Bericht von Artikel 19 sowie Beispiele für Trainings zu Begegnung von Hasssprache finden sich auf der Projektseite von Media against hate.

Desinformation und "Fake News"

Spätestens mit der US-Wahl 2016 und den Aussagen von Donald Trump wurde der Begriff "Fake News" weltweit zum vielverwendeten Reizwort. Der Begriff "alternative Fakten" wurde von Linguisten im deutschsprachigen Raum dann auch zum Unwort des Jahres 2017 gekürt. Falschmeldungen sind nichts Neues: Der von den Nationalsozialisten fingierte Überfall auf den Sender Gleiwitz als Vorwand, Polen zu überfallen, zählt hier genauso dazu wie die vielbeschworenen Massenvernichtungswaffen Sadam Husseins als Anlass zum 2. Irakkrieg unter US-Präsident Bush. Mit den Angriffen auf Medien, die kritisch über ihn berichteten, zielte Donald Trump allerdings darauf, die Glaubwürdigkeit traditioneller Medien generell zu untergraben und nur jene Nachrichten zu akzeptieren, die ihm genehm waren. Der Begriff "Fake News" spielt so eine ähnliche Rolle wie der Begriff "Lügenpresse", der in Deutschland in den letzten Jahren vorrangig von rechtsextremen und rechtspopulistischen PolitikerInnen und der AfD verwendet wird, um kritische Berichterstattung zu diskreditieren.


Carolin Lees (2018) berichtet im "Index on Censorship" von zahlreichen Beispielen, wie vor allem in autoritär oder repressiv regierten Staaten der Vorwurf, "Fake News" zu produzieren und zu verbreiten, zur Methode wurde, um Journalisten einzusperren oder Medien zu verbieten. Als Beispiele nennt sie neben Myanmar (Burma) oder den Philippinen auch europäische Länder wie Polen, Ungarn oder Frankreich.


Der UNESCO-Bericht World Trends in Freedom of Expression and Media Development (UNESCO 2018) unterstreicht die Bedeutung von klick-werter Information für die Verbreitung von unwahren oder erfundenen Geschichten auf Social Media-Plattformen, weil diese Informationen bei NutzerInnen Interaktionen (Clicks) auslösen, die für die Plattformbetreiber kommerziell interessant sind. Die Rolle der Plattformen betont auch Liriam Sponholz von der Österreichischen Akademie der Wissenschaften, wenn sie auf Der Standard schreibt, dass "Fake News" kein Ausdruck von "Fehlverhalten" sind, sondern ein Geschäftsmodell und das Resultat der Click Economy (Sponholz 2017).


Von Medien- und KommunikationswissenschaftlerInnen und von MedienmacherInnen wird der Begriff "Fake News" abgelehnt, weil er die Rolle der Medien als Quelle von Informationen generell abwertet. Es wird empfohlen, ihn nur unter Anführungszeichen zu verwenden oder besser differenzierter zu benennen, worum es geht - um Falschmeldungen, Gerüchte, Satire oder eben das Diskreditieren kritischer journalistischer Arbeit.


Claire Wardle von firstdraft news hat zu dieser Frage für den Europarat den Bericht Information Disorder erstellt (Wardle 2017), der in Auszügen auch auf Deutsch verfügbar ist. Sie meint:

 

"... dass der Begriff "Fake News" alles andere als hilfreich ist. Ohne eine Alternative bleibt uns jedoch nichts anderes übrig, als ihn trotzdem ungeschickt und mit Anführungszeichen versehen zu verwenden. Auch einen alternativen Ausdruck zu finden ist problematisch, denn es geht hier um mehr als nur um Nachrichten. Es geht um das gesamte Informations-Ökosystem. Hinzu kommt, dass das Wort 'fake' (zu Deutsch ‚falsch') nicht einmal ansatzweise die Komplexität der verschiedenen Arten von Fehlinformationen und Desinformationen widerspiegelt. Fehlinformationen beschreiben das unbeabsichtigte Verbreiten von falschen Informationen, Desinformationen hingegen das absichtliche Erfinden von wissentlich falschen Informationen und deren Verbreitung."

 

Um das aktuelle Informations-Ökosystem besser verstehen zu können, sollten nach Wardle zuerst drei Aspekte genauer aufgeschlüsselt werden:

  • die verschiedenen Arten von Inhalten, die erstellt und verbreitet werden
  • die Beweggründe derjenigen, die solche Inhalte erstellen
  • die Art und Weise, wie diese Inhalte verbreitet werden

 

Auf Grundlage dieser Überlegungen kommt Wardle zu einem detaillierten Raster mit dem sich Fehlinformationen einordnen lassen und so differenziert diskutiert werden können. Sie identifiziert sieben unterschiedliche Arten von Fehlinformationen: 1. Satire oder Parodie, 2. irreführende Inhalte, 3. betrügerische Inhalte, 4. erfundene Inhalte, 5. falsche Verknüpfungen, 6. falsche Zusammenhänge und 7. überarbeitete Inhalte.

 

Sieben Arten von Fehlinformationen nach Wardle (2017) (Grafik: Wardle 2017, auf https://de.firstdraftnews.org)

 

Warum solche Fehlinformationen generiert und verbreitet werden, schlüsselt Wardle in acht Kategorien auf, die sie die "8 Ps" nennt: poor journalism (schlechter Journalismus), Parodie, Provokation, Passion, Parteilichkeit, Profit, politischer Einfluss oder politische Macht und Propaganda. Auch wenn sich noch weitere Kategorien finden lassen, hilft diese Struktur MediennutzerInnen schon sehr, Fehlinformationen einzuschätzen und zu überlegen, was sich dagegen tun lässt.

 

Acht Gründe für Fehlinformationen nach Wardle (2017) (Grafik: Wardle 2017, auf https://de.firstdraftnews.org)

 

Was die Verbreitung der Falschmeldungen betrifft, kommt die bereits an anderer Stelle angesprochene Verbreitungsdynamik von Social Media-Plattformen zum Tragen. Falschmeldungen, böswillig erfundene Geschichten oder Gerüchte erreichen nicht nur wesentlich mehr NutzerInnen, sondern erreichen diese auch weitaus schneller als seriöse Nachrichten.


Derzeit ist noch weitgehend unklar, wie dieser Dynamik entgegnet werden kann, zumal sie eine Mischung aus psychologischen Effekten und dem Wirken der Algorithmen ist. Und bei kommerziellen Plattformen wie Twitter, Facebook oder Google sollen die Algorithmen auch stets die Maximierung von Interaktionen fördern. Hinzu kommt der Einfluss von Social Bots, jener automatisierten NutzerInnenprofile, die je nach AuftraggeberIn bestimmte Inhalte oder Meinungen unterstützen. Wardle liefert leider auch kein Patentrezept, rät aber die Reaktionszeit beim Weiterleiten oder Kommentieren von Meldungen allgemein zu verlangsamen und UserInnen aufzufordern, wahrgenommene Inhalte zuerst in Ruhe zu reflektieren und sie erst dann zu kommentieren oder weiterzuleiten.


Es gibt mittlerweile eine ganze Reihe von Initiativen und Internetseiten, die sich auf die Überprüfung von vermuteten Falschmeldungen spezialisiert haben, in Österreich sind das etwa Mimikama oder Kobuk. Was die Wirkung von solchen Überprüfungsseiten betrifft, sind sie zwar sehr wichtig, ändern aber wenig an der Meinungsbildung jener Menschen, für die spezifische Falschmeldungen in ihr Weltbild passen bzw. es bestärken.


Der UNESCO-Bericht World Trends in Freedom of Expression and Media Development (UNESCO 2018) unterstreicht die Bedeutung von klick-werter Information für die Verbreitung von unwahren oder erfundenen Geschichten auf Social Media-Plattformen, weil diese Informationen bei NutzerInnen Interaktionen (Clicks) auslösen, die für die Plattformbetreiber kommerziell interessant sind. Es gibt aber auch Hoffnung, dass dieser Effekt nicht ganz so umfangreich zum Tragen kommt, wie manche ExpertInnen vermuten. So kamen die AutorInnen einer Studie für die Landesanstalt für Medien in Nordrhein-Westfalen (LfM) zum Schluss, dass das Nutzen von Inhalten doch weniger oft auch zum Glauben dieser führt und Meinungsbildung sich nach wie vor stärker aus persönlichen Gesprächen ergibt als über netzbasierte Kommunikation (Stark/Magin/Jürgens 2017). Dass diese Desinformationseffekte nicht 1:1 bei den MediennutzerInnen ankommen, besagen auch die Ergebnisse der Erhebungen von Eurobarometer im Herbst 2017 (Europäische Kommission 2017). Demnach besitzen Informationen aus Social Media-Plattformen nur sehr geringe Glaubwürdigkeit. Während 68% der Befragten Radio und 64% das Fernsehen in Österreich für glaubwürdige Quellen hielten, befanden die Befragten das für Informationen aus dem Internet allgemein nur zu 43% und für Informationen aus Social Media-Kanälen nur zu 29%.


Im Rahmen der Vermittlung kritischer Medienkompetenz ist die Auseinandersetzung mit Falschmeldungen und ihren Auswirkungen und Dynamiken zweifellos wichtig. Dazu gibt es neben der Analyse von Inhalten auch kreative Methoden, bei denen die Lernenden selbst Falschmeldungen produzieren, um die Zusammenhänge aus ihrem eigenen Medienhandeln heraus zu verstehen. So geht es etwa beim Browserspiel "Fake it to make it" darum, mit "Fake News" an Geld zu kommen. Die SpielerInnen lernen dabei, wie "Fake News" lanciert werden, um möglichst oft verbreitet zu werden, und wie die ErstellerInnen von "Fake News" dabei auch noch Geld verdienen.

Big Data und Datensouveränität

Von Autos bis zu Zahnbürsten - immer mehr Alltagsgegenstände erzeugen Daten. Auch im Berufsleben erfassen Maschinen, Geräte und Programme immer mehr Informationen. Unter dem Begriff "Big Data" wird die Sammlung immer größerer Datenmengen zusammengefasst, die systematisch ausgewertet werden können. Dabei werden Muster und Zusammenhänge herausgefiltert, um Aussagen zu treffen oder Prognosen zu erstellen. Was einerseits den NutzerInnen von Geräten wie Smartphones, Tablets oder kleinen Hilfsgeräten zur Fitnesskontrolle - sogenannte "Wearables" - den Alltag erleichtert, höhlt gleichzeitig den Datenschutz und die Privatsphäre aus und ist für die/den Einzelne/n nur schwer zu durchschauen. Das betrifft nicht nur die Verbindungsdaten mobiler Geräte oder die Nutzung kommerzieller Social Media-Plattformen wie Facebook und Google, sondern immer mehr digitale Dienste oder Apps - etwa in Fahrzeugen, die laufend Daten über Standort, Fahrverhalten und Fahrzeugzustand übermitteln. Während Facebook und Google diese Daten nutzen, um ihren NutzerInnen möglichst zielgenau personalisiert Werbung anzuzeigen, gibt es andere Firmen, die sich auf das Datengeschäft als solches spezialisiert haben. Nach Recherchen von Wolfie Christl (2017a; 2017b) speichert Acxiom, gegründet 1969 und eine der weltgrößten Firmen für die Sammlung von KundInnendaten, Daten zu 3000 unterschiedliche Parametern von über 700 Millionen Menschen.

 

Acxiom und einige seiner Datenlieferanten, Partner und Kunden nach Christl (2017a, S. 55) (Grafik: CC BY SA 4.0, Cracked Labs 2017, auf http://crackedlabs.org)

 

Das Sammeln von persönlichen Daten ist zum großen Geschäft geworden, was KritikerInnen prägnant zum Ausdruck bringen, wenn sie meinen: "Wenn Daten der Rohstoff der Zukunft sind, ist Datenschutz der neue Umweltschutz". Die erbittert geführte Auseinandersetzung um die Datenschutzgesetzgebung in der EU macht deutlich, dass dies keine hohlen Phrasen sind. So ist Datenschutz jenes Thema im Europäischen Parlament, zu dem es bisher die meisten Einwände und Interventionen von Lobbyisten gab. Dass die Datenschutzgrundverordnung doch noch auf den Weg kam, kann durchaus auch mit Edwards Snowdens Aufdeckung des Datenmissbrauchs durch die NSA in Verbindung gebracht werden. David Bernets Film "Democracy. Im Rausch der Daten" fasst die Auseinandersetzung mit dem Thema Datenschutz in der EU zusammen, dokumentiert die Auseinandersetzung und eröffnet gut verständlich Einblicke in die Interessenslagen unterschiedlicher Lobbying-Gruppen.


Eine gute Zusammenfassung zum Thema Big Data aus Sicht der KonsumentInnen findet sich im Themenpapier der AK zu "Big Data und Verbraucherschutz" (Zimmer 2017).


Mittlerweile gibt es mehr und mehr WissenschaftlerInnen, die sich kritisch mit der vor allem ökonomisch motivierten Euphorie um Big Data auseinandersetzen. Christian Fuchs (2016) meint etwa in Bezug auf die vermeintlich kostenfreien Angebote von Social Media-Plattformen in einem Interview auf Okto: "Bei sozialen Medien wird nicht der Zugang verkauft. Also muss die Ware etwas anderes sein: Es sind die Daten der Nutzer, die an werbetreibende Unternehmen weiterverkauft werden. ... Der umgekehrte Warenfetisch macht es so schwer zu erkennen, dass Facebook-Nutzung, Google Nutzung eine Form der Arbeit ist und dass dort reale Ausbeutung stattfindet."


Walter Peissl (2016), stellvertretender Leiter des Instituts für Technikfolgen-Abschätzung in Wien, hat sich intensiv mit der Frage der Datengewinnung über mobile Endgeräte beschäftigt. Er rät dazu, mehr darüber nachzudenken, welche Dienste es wirklich wert sind, ihnen etwa den Zugriff auf gespeicherte Kontakte zuzulassen. Allgemein plädiert er für Datensparsamkeit, für mehr Bewusstsein für die Bedeutung der Privatsphäre und dafür, bei der Auswahl von Diensten oder Apps solche zu wählen, die nur auf jene Daten zugreifen, die für ihr Funktionieren auch wirklich nötig sind. Diese auch für die kritische Medienkompetenz wichtige Auseinandersetzung wird meist unter dem Stichwort Datensouveränität geführt.

Digital Divide

Bei der Auseinandersetzung um die Digitale Spaltung oder Digitale Kluft (engl.: Digital Divide) geht es seit Mitte der 1990er-Jahre vorwiegend um die Frage des unterschiedlichen Zugangs zu Informations- und Kommunikationstechnologien (IKT). Meist ist damit der Zugang von Individuen oder Gruppen zum Internet und zu internetfähigen Geräten, wie Computer oder Tablets, gemeint. Diesen technischen Zugang als Kriterium der Beteiligung heranzuziehen, greift allerdings zu kurz, weil dabei die Frage der Bildungshintergründe und die sozialen Aspekte ausgeklammert werden, die für sinnbringenden Einsatz der technischen Möglichkeiten aber ganz wesentlich sind. Mark Warschauer hat dafür bereits 2003 ein Modell entworfen und angeregt, die Diskussion zur Digital Divide nicht technologiezentriert zu führen, sondern im Rahmen einer breiteren Diskussion um gesellschaftliche Transformation (Warschauer 2003).

 

Heute haben nach Statistik Austria in Österreich 89% der Haushalte Zugang zum Internet, 88% mit einem Breitbandanschluss. Das Problem der Digitalen Kluft wäre allerdings auch nicht gelöst, wenn 100% der Menschen in Österreich Internetzugang hätten. Bestehende sozial oder bildungsmäßig begründete Benachteiligungen wirken sich für die betroffenen Menschen auch auf die Art und Weise aus, wie sie das Internet und Informationstechnologien so nutzen können, dass sie ihren eigenen Interesse dienen. Die Unterscheidung zwischen rein technischem Zugang und der Fähigkeit, diese Möglichkeiten auch im eigenen Interesse und im Sinne einer sozialen Transformation nutzen zu können, wird auch in aktuellen wissenschaftlichen Auseinandersetzung weiterhin betont. So kommt etwa Christoph Neuberger im MedienJournal zum Schluss, dass durch die Verbreitung des Internets zwar die Zugangsklüfte abnehmen, aber die Nutzungsklüfte und Unterschiede in der Auswahl genutzter Angebote weiter bestehen (Neuberger 2017, S. 56). Das führt zur Fortschreibung von bestehenden Wissensklüften und kann potentiell die gesellschaftliche Spaltung sogar vergrößern, weil jeweils neue Möglichkeiten der IKT-Nutzung auch wieder zuerst von jenen Menschen mit den besseren Ressourcen genutzt werden. Die Problematik, dass auch eine für alle Menschen garantierte technische Zugangsmöglichkeit diese Kluft nicht schließt, wird auch unter dem Begriff "Digitale Ungleichheit" (Verständig/Klein/Iske 2016, S. 51) oder "Second Level Digital Divide" diskutiert.


Mark Warschauer (2003) hat in seiner Auseinandersetzung mit Digital Divide und dem Zugangsmodell (Models of access) diese Differenzierung früh vorweggenommen. Er unterscheidet bei der Frage, ob jemand Zugang oder nicht Zugang zu Informations- und Kommunikationstechnologie hat, in Bezug auf Devices (Geräte), Conduit (Internetzugang) und Literacy (grundlegende Fähigkeiten):

 

  1. Mit Devices definiert Warschauer die Ebene der physischen Zugangsmöglichkeit zu Computern oder anderem IKT-Geräte, die den Betroffenen zur Verfügung stehen oder nicht. Er weist in diesem Zusammenhang darauf hin, dass die Anschaffungskosten eines Computers alleine bei weitem nicht die wirklichen "Besitzkosten" ausmachen. Selbst wenn den Betroffenen kostenfrei Computer zur Verfügung gestellt werden, bedeutet das noch nicht, dass sie diese auch auf eine für sie persönlich und sozial sinnbringende Art und Weise nutzen können.
  2. Mit Conduit bezeichnet Warschauer die Ebene der Anbindung an das Internet. Eine "Freie Anbindung" entspricht demnach der Versorgung der Bevölkerung mit TV oder Radioprogrammen, die selbst unabhängig von Gebühren von allen nutzbar sind. Eine kostengünstige oder kostenfreie, allerorts verfügbare Internetverbindung bildet so eine zentrale Voraussetzung für die technische Zugänglichkeit.
  3. Literacy meint in diesem Zusammenhang alle grundlegenden Fähigkeiten darüber sowie das Bewusstsein darum, wie Computer und Internet oder auch andere IKT-Geräte von den Betroffenen sinnbringend eingesetzt werden können. Warschauer führt hier den direkten Vergleich mit der Bedeutung der Alphabetisierung, also dem Erlernen von Lesen und Schreiben innerhalb der gesellschaftlichen Entwicklung an. Ob jemand über solche grundlegenden Kompetenzen verfügt, steht im direkten Zusammenhang mit seiner/ihrer sozialen Einbindung, Stellung und Entwicklung und kann entscheidend dafür sein, welche Möglichkeiten sich in der Folge eröffnen oder aber trotz technischem Zugang und verfügbaren Geräten verschlossen bleiben. (Anmerkung des Autors: Die Begrifflichkeiten sind hier direkt von Warschauer übernommen. Zu einer differenzierten Diskussion der Begriffe Alphabetisierung, Fähigkeiten und Kompetenzen siehe auch das Dossier zu Basisbildung von Monika Kastner (2013/2016).

 

Warschauer entwickelte aus seinen Überlegungen über das Zusammenspiel von Literacy und IKT-Zugang ein Modell, bei dem er als Voraussetzung für die effektive und sinnbringende IKT-Nutzung zwischen physikalischen, digitalen, menschlichen und sozialen Ressourcen unterscheidet. Sind alle vier Elemente im ausreichenden Umfang vorhanden, kann die Nutzung von IKT auch wieder alle vier Aspekte stärken. Sind einzelne Ressourcen nur mangelhaft oder gar nicht verfügbar, kann die heute immer wichtigere Rolle von IKT hingegen auch zu einer Vergrößerung bereits bestehender sozialer Klüfte beitragen (vgl. Warschauer 2003, S. 134).

 

Zusammenspiel von Ressourcen und effektiver IKT-Nutzung (Grafik: CONEDU 2018, auf https://erwachsenenbildung.at, auf Basis von Warschauer 2003, S. 47)

 

Warschauer unterstreicht die Bedeutung von Lernsituationen, in denen Menschen IKT zur Lösung ihrer vordringlichen Probleme einsetzen können, aber auch lernen, die Rolle von IKT im weiteren Zusammenhang zu reflektieren und zu verstehen. Er nimmt dabei Bezug auf die Tradition einer kritischen Bildungspraxis und auf Paolo Freires (1971/1991) Anspruch, "nicht nur Worte lesen zu lernen, sondern auch die Welt". IKT sollte demnach als mögliches Werkzeug in der Auseinandersetzung mit breiteren Themen verstanden werden und nicht als isoliertes Lernziel. Warschauer stellt dazu den Vergleich mit einem Zimmermann an, der seinen Beruf nicht lernt, indem er einfach einen Hammer oder andere Werkzeuge zu gebrauchen lernt, sondern lernen muss, wann er welches Werkzeug einsetzen kann - und was er sonst noch dazu benötigt - damit er am Ende einen Dachstuhl gefertigt hat. Warschauers Modell könnte auch als Anregung dazu dienen, aktuelle Begriffe wie Digitalkompetenz und die dahinterliegenden Konzepte kritisch zu reflektieren.

ESF - Aktuelle Calls EBmooc