Deepfakes: Was Erwachsenenbildner*innen tun können
Sie sehen echt aus, sind einfach zu erstellen und können sich rasant verbreiten. Die Rede ist von Deepfakes. Durch die voranschreitende Entwicklung im Bereich der Künstlichen Intelligenz werden auch mediale Fakes immer besser.
Doch man kann gegen Deepfakes aktiv vorgehen: individuell, durch den Einsatz geeigneter Tools und über Regulierungen auf politischer Ebene.
Erwachsenenbildner*innen können über die Risiken des Missbrauchs der KI-Technologie aufklären und Lernenden Tipps an die Hand geben, um Deepfakes zu erkennen und sich und andere davor zu schützen.
Was sind Deepfakes?
Der Begriff „Deepfake“ ist eine Kombination aus „Deep Learning“, einer Methode des maschinellen Lernens, wie sie bei künstlichen neuronalen Netzwerken zur Anwendung kommt und dem Wort „Fake“ (dt. „Fälschung“).
Werden mediale Inhalte, wie etwa Bilder, Videos oder Tonaufnahmen mithilfe von Künstlicher Intelligenz erzeugt, verändert oder manipuliert, spricht man also von Deepfakes. Die produzierten Inhalte erwecken dabei den Eindruck von Originalaufnahmen und sind dazu bestimmt, Adressat*innen zu täuschen.
Deepfakes sind demnach eine Form der Desinformation. Sie unterscheiden sich von bisher geläufigeren Formen medialer Manipulationen, wie etwa Fake News, durch die zugrundeliegende KI-Technologie, die für das Erzeugen solcher Täuschungen maßgeblich ist.
Manipulationen mit KI: so einfach geht es in der Praxis
Deepfakes können mittlerweile sehr einfach mit kostenlosen KI-Tools erstellt und verbreitet werden. Beim sog. „Face Swapping“ werden etwa die Gesichter zweier Personen getauscht oder ein Gesicht auf einen fremden Körper platziert. Mit KI erstellte Fakes betreffen auch das Animieren einzelner Fotos bis hin zur Erzeugung ganzer Videosequenzen, in denen vermeintlich bekannte Personen etwas sagen oder tun, das nie wirklich stattgefunden hat.
Um solche Fake-Audio- oder Videosequenzen zu erzeugen, wird in aller Regel eine echte Aufnahme von der Person benötigt, die nachgeahmt werden soll. Häufig werden prominente Persönlichkeiten und Fernsehmoderator*innen Opfer solcher Manipulationen, da von ihnen genügend Aufnahmematerial online zur Verfügung steht. Auf Basis einer Vorlage sind die KI-Tools dann in der Lage neues Material zu erzeugen, das einem Original täuschend ähnlich ist. Meist genügt dann die Eingabe eines einfachen Textprompts und der entsprechende Deepfake wird erstellt.
Auch Betrugsmaschen am Telefon, wie der bekannte „Enkel-Trick“, werden zum Teil mittels sog. Voice Cloning durchgeführt. Ein großes Unternehmen fiel auf diese Weise einem Betrug zum Opfer, bei dem eine Videokonferenz simuliert wurde.
Mit Medienkompetenz gegen Deepfakes
Da Deepfakes so leicht in Umlauf geraten und die Problematik zunimmt, wird es immer wichtiger, Lernende für das Thema zu sensibilisieren. Erwachsenenbildner*innen können das tun, indem sie die Medienkompetenz der Lernenden fördern und Informationen über Deepfakes in eigenen Angeboten vermitteln.
Trainer*innen können z.B. darüber aufklären, woran sich mediale Fälschungen erkennen lassen und wie und warum Desinformationen verbreitet werden. Diese vorbeugende Haltung wird als „Prebunking“ bezeichnet.
Beim „Debunking“ geht es um das Überprüfen und Richtigstellen von Informationen bzw. medialen Darstellungen. Dazu gehören auch Faktenchecks mittels Recherche im Internet sowie rückwärtsgerichtete Bildsuchen.
Medienkompetenz lässt sich auch sehr gut in Workshops, in Gruppenarbeiten oder spielerisch vermitteln. Tipps dazu erhalten Erwachsenenbildner*innen im Video-Lernbaustein zur Kritischen Medienkompetenz sowie in der dritten Lektion des EBmooc 2023.
Wie man Deepfakes erkennt
Auch wenn mit KI erstellte Fakes zunehmend besser werden, kann das ein- oder andere Detail in Bildern oder Videos darüber Aufschluss geben, ob es sich um eine Fälschung bzw. um ein KI-generiertes Produkt handelt oder nicht.
An den Augen und an Brillengläsern lässt sich oftmals erkennen, wenn es sich um eine Manipulation handelt. Sie wirken in Bildern manchmal unnatürlich oder verzerrt. In Videos kann ein Flackern Zweifel an der Echtheit aufkommen lassen.
Auch Kopfbewegungen sind manchmal etwas verzogen. Die Körperhaltung kann eigenartig wirken und ein Hinweis auf einen Fake sein. Bei vollständig KI-generierten Bildern sind es häufig die Extremitäten von dargestellten Personen und ihre Finger, die unnatürlich aussehen. Oft stimmen Proportionen nicht überein. Die Belichtung oder merkwürdige Schattierungen können auch ein Indiz für eine Fälschung sein.
In Deepfakes kann der Gesichtsausdruck bzw. die Mimik einer Person eigenartig oder ungewöhnlich wirken. Auch charakteristische Merkmale, wie Tattoos, sind aufschlussreich: Fehlen sie, könnte es sich um einen Fake handeln.
Dennoch wird empfohlen, immer das ganze Bild im Blick zu behalten und auch auf weitere Details zu achten. Frei verfügbare Selbsttests und Quizzes können helfen, das Erkennen von Deepfakes zu trainieren.
Oft hilft aber auch das nichts: Wie eine Studie und der zugehörige Selbsttest auf humanorai.io belegen, erkennen nur 1,9% der Probanden alle fünf in einem Test gezeigten KI-generierten Bilder.
Allgemeine Tipps zum Enttarnen von Fake News können zusätzlich hilfreich sein. Lernende sollen angehalten werden, Informationen kritisch zu hinterfragen und im Zweifelsfall im Internet zu überprüfen, ob es sich um eine Fälschung handelt.
Fälschungen auf der Spur
Die Verbreitung von Deepfakes einzudämmen, ist ein sehr schwieriges Unterfangen – erheblich schwieriger als das Erstellen solcher KI-Manipulationen. Gut zu wissen: Es ist nicht immer eine rein individuelle Aufgabe, Fälschungen zu erkennen – auch Tools können dabei helfen. Beispiele dafür sind etwa die Detektoren deepware.ai oder der DeepFake-O-Meter.
Defame Fakes – ein Projekt finanziert im Sicherheitsforschungs-Förderprogramm KIRAS des Bundesministeriums für Finanzen – hat es sich zum Ziel gesetzt, Werkzeuge und Maßnahmen zur Erkennung und Prävention von Deepfakes zu entwickeln. Forschende im Projekt defalsif-AI sowie des GADMO (German-Austrian Digital Media Observatory) arbeiten jeweils an der Entwicklung von KI-Werkzeugen zur Überprüfung medialer Inhalte.
Deepfakes als Bedrohung für die Gesellschaft
Für den demokratischen Diskurs sind Deepfakes eine Gefahr. Sie werden gezielt eingesetzt, um politische Kontrahenten zu diffamieren oder den politischen Diskurs zu zerrütten. Versuche, Einfluss auf den Wahlkampf zu nehmen, oder Berichte über Stimmen-Deepfakes von Politikern waren im heurigen Superwahljahr schon mehrmals Thema in den Medien. Täuschend echt wirkende Manipulationen von Politiker*innen können auch eine Gefahr für die nationale Sicherheit sein.
Durch die Häufung von Deepfakes verlieren Menschen zunehmend das Vertrauen in mediale Inhalte, was die paradoxe Konsequenz haben kann, dass sie Echtes für Fake halten. Um diesen sog. „Drake-Effekt“ geht es auch in einer Folge des KI-Podcasts in der ARD-Audiothek.
Wie die Politik reagiert: Regulierungen und ihre Auswirkungen
Zu den nennenswertesten politischen Maßnahmen im Kampf gegen Desinformation zählt insbesondere der Digital Services Act der EU, der regulierende Vorschriften für Online-Plattformen vorsieht.
In Bezug auf politische Wahlen wurden von der EU-Kommission Leitlinien zur Minderung systemischer Risiken veröffentlicht. Diese sehen u.a. vor, dass große Online-Plattformen und -Suchmaschinen dafür Sorge tragen müssen, KI-generierte Inhalte zu kennzeichnen, um so der Verbreitung von Deepfakes entgegenzuwirken.
Nutzer*innen der Video-Plattform YouTube sind beim Hochladen von Content inzwischen verpflichtet, veränderte oder synthetische Inhalte zu kennzeichnen.
Auch in der europäischen KI-Verordnung (AI Act) wird auf Deepfakes eingegangen. Die im Regulierungsvorschlag der Europäischen Kommission beschriebenen Maßnahmen werden aber auch kritisch diskutiert.
Gutes tun mit der Deepfake-Technologie
Die Technologie hinter Deepfakes könnte auch positive Veränderungen bewirken, da sich mit ihr etwa soziale oder krankheitsbedingte Barrieren überwinden ließen. Beispiele für die Potenziale der Technologie gibt OpenAI in der Ankündigung seines neuen KI-Tools „Voice Engine“. Mit dieser KI kann etwa Patient*innen geholfen werden, die ihre Stimme aufgrund einer Erkrankung verloren haben. Auf der Grundlage vergangener Audio-Aufnahmen der betroffenen Person kann die KI ihre Stimme rekonstruieren.
Dass mit den Technologien hinter Deepfakes nicht per se böse Absichten verbunden sind, zeigen etwa Beispiele wie der digitale Klon des verstorbenen Künstlers Salvador Dali oder KI-generierte Avatare, die u. a. in der Lehre eingesetzt werden können. Zwar sind die genannten Anwendungsfälle diskussionsbedürftig, sie verfolgen aber keine Täuschungsabsicht, wie das bei Deepfakes der Fall ist.
Verwandte Artikel
Lesen, Hören, Sprechen – KI-Sprachtools für die Erwachsenenbildung
Im achten Webinar der KI-Serie am 01. Oktober lernen Teilnehmende KI-Anwendungen im Bereich Sprache kennen, die sowohl Lehrende als auch Lernende auf vielfältige Weise unterstützen können.Offene KI für alle: Empfehlungen aus Deutschland
Im Rahmen des „Forums Offene KI in der Bildung“ wurden im Frühjahr 2024 zehn Handlungsempfehlungen für eine offene KI in der Bildung formuliert. Ein Beitrag auf wb-web fasst diese zusammen.Wie beeinflusst KI unsere Gesellschaft? Veranstaltung am 8. Oktober
Mit Vorträgen und Workshops will die Veranstaltung „Künstliche Intelligenz und Gesellschaft – Bias, Ungleichheiten, Diskriminierungsstrukturen“ eine kritische KI-Kompetenz fördern.Narrative Ethik in der digitalen Erwachsenenbildung
Für Erwachsene bieten Geschichten ein großes Potenzial, Herausforderungen im Zuge der Digitalisierung zu reflektieren. So lässt sich ethische Bildung fördern.Video: GPTs für Bildungszwecke – spezifische KI-Chatbots
Lernen, Forschen, Akquirieren – bei all diesen Tätigkeiten können sich Erwachsenenbildner*innen von „Custom GPTs“ unterstützen lassen.Webinar zum Einfluss von KI auf Demokratie und Politik am 17. September
Im Webinar zeigen KI-Expert*innen auf, inwieweit KI sowohl Chance als auch Gefahr für die Demokratie sein kann. Interessierte können sich noch bis zum 13. September anmelden. Die Teilnahme ist kostenlos.