Deepfakes: Was Erwachsenenbildner*innen tun können

08.08.2024, Text: Gunter Schüßler, Redaktion/CONEDU
Mediale Manipulationen, die mithilfe von KI erzeugt werden, sind oft kaum noch von Originalaufnahmen zu unterscheiden. Trainer*innen können für das Thema sensibilisieren und die Medienkompetenz der Lernenden stärken.
Ein Mann sieht in die Kamera, eine Gesichtserkennungssoftware scannt sein Gesicht.
KI lässt mediale Fälschungen immer realistischer aussehen. Erwachsenenbilder*innen können helfen, sie zu ernttarnen.
Foto: CC BY, Comuzi, https://betterimagesofai.org

Sie sehen echt aus, sind einfach zu erstellen und können sich rasant verbreiten. Die Rede ist von Deepfakes. Durch die voranschreitende Entwicklung im Bereich der Künstlichen Intelligenz werden auch mediale Fakes immer besser.

Doch man kann gegen Deepfakes aktiv vorgehen: individuell, durch den Einsatz geeigneter Tools und über Regulierungen auf politischer Ebene.

Erwachsenenbildner*innen können über die Risiken des Missbrauchs der KI-Technologie aufklären und Lernenden Tipps an die Hand geben, um Deepfakes zu erkennen und sich und andere davor zu schützen.

Was sind Deepfakes?

Der Begriff „Deepfake“ ist eine Kombination aus „Deep Learning“, einer Methode des maschinellen Lernens, wie sie bei künstlichen neuronalen Netzwerken zur Anwendung kommt und dem Wort „Fake“ (dt. „Fälschung“).

Werden mediale Inhalte, wie etwa Bilder, Videos oder Tonaufnahmen mithilfe von Künstlicher Intelligenz erzeugt, verändert oder manipuliert, spricht man also von Deepfakes. Die produzierten Inhalte erwecken dabei den Eindruck von Originalaufnahmen und sind dazu bestimmt, Adressat*innen zu täuschen.

Deepfakes sind demnach eine Form der Desinformation. Sie unterscheiden sich von bisher geläufigeren Formen medialer Manipulationen, wie etwa Fake News, durch die zugrundeliegende KI-Technologie, die für das Erzeugen solcher Täuschungen maßgeblich ist.

Manipulationen mit KI: so einfach geht es in der Praxis

Deepfakes können mittlerweile sehr einfach mit kostenlosen KI-Tools erstellt und verbreitet werden. Beim sog. „Face Swapping“ werden etwa die Gesichter zweier Personen getauscht oder ein Gesicht auf einen fremden Körper platziert. Mit KI erstellte Fakes betreffen auch das Animieren einzelner Fotos bis hin zur Erzeugung ganzer Videosequenzen, in denen vermeintlich bekannte Personen etwas sagen oder tun, das nie wirklich stattgefunden hat.

Um solche Fake-Audio- oder Videosequenzen zu erzeugen, wird in aller Regel eine echte Aufnahme von der Person benötigt, die nachgeahmt werden soll. Häufig werden prominente Persönlichkeiten und Fernsehmoderator*innen Opfer solcher Manipulationen, da von ihnen genügend Aufnahmematerial online zur Verfügung steht. Auf Basis einer Vorlage sind die KI-Tools dann in der Lage neues Material zu erzeugen, das einem Original täuschend ähnlich ist. Meist genügt dann die Eingabe eines einfachen Textprompts und der entsprechende Deepfake wird erstellt.

Auch Betrugsmaschen am Telefon, wie der bekannte „Enkel-Trick“, werden zum Teil mittels sog. Voice Cloning durchgeführt. Ein großes Unternehmen fiel auf diese Weise einem Betrug zum Opfer, bei dem eine Videokonferenz simuliert wurde.

Mit Medienkompetenz gegen Deepfakes

Da Deepfakes so leicht in Umlauf geraten und die Problematik zunimmt, wird es immer wichtiger, Lernende für das Thema zu sensibilisieren. Erwachsenenbildner*innen können das tun, indem sie die Medienkompetenz der Lernenden fördern und Informationen über Deepfakes in eigenen Angeboten vermitteln.

Trainer*innen können z.B. darüber aufklären, woran sich mediale Fälschungen erkennen lassen und wie und warum Desinformationen verbreitet werden. Diese vorbeugende Haltung wird als „Prebunking“ bezeichnet.

Beim „Debunking“ geht es um das Überprüfen und Richtigstellen von Informationen bzw. medialen Darstellungen. Dazu gehören auch Faktenchecks mittels Recherche im Internet sowie rückwärtsgerichtete Bildsuchen.

Medienkompetenz lässt sich auch sehr gut in Workshops, in Gruppenarbeiten oder spielerisch vermitteln. Tipps dazu erhalten Erwachsenenbildner*innen im Video-Lernbaustein zur Kritischen Medienkompetenz sowie in der dritten Lektion des EBmooc 2023.

Wie man Deepfakes erkennt

Auch wenn mit KI erstellte Fakes zunehmend besser werden, kann das ein- oder andere Detail in Bildern oder Videos darüber Aufschluss geben, ob es sich um eine Fälschung bzw. um ein KI-generiertes Produkt handelt oder nicht.

An den Augen und an Brillengläsern lässt sich oftmals erkennen, wenn es sich um eine Manipulation handelt. Sie wirken in Bildern manchmal unnatürlich oder verzerrt. In Videos kann ein Flackern Zweifel an der Echtheit aufkommen lassen.

Auch Kopfbewegungen sind manchmal etwas verzogen. Die Körperhaltung kann eigenartig wirken und ein Hinweis auf einen Fake sein. Bei vollständig KI-generierten Bildern sind es häufig die Extremitäten von dargestellten Personen und ihre Finger, die unnatürlich aussehen. Oft stimmen Proportionen nicht überein. Die Belichtung oder merkwürdige Schattierungen können auch ein Indiz für eine Fälschung sein.

In Deepfakes kann der Gesichtsausdruck bzw. die Mimik einer Person eigenartig oder ungewöhnlich wirken. Auch charakteristische Merkmale, wie Tattoos, sind aufschlussreich: Fehlen sie, könnte es sich um einen Fake handeln.

Dennoch wird empfohlen, immer das ganze Bild im Blick zu behalten und auch auf weitere Details zu achten. Frei verfügbare Selbsttests und Quizzes können helfen, das Erkennen von Deepfakes zu trainieren.

Oft hilft aber auch das nichts: Wie eine Studie und der zugehörige Selbsttest auf humanorai.io belegen, erkennen nur 1,9% der Probanden alle fünf in einem Test gezeigten KI-generierten Bilder. 

Allgemeine Tipps zum Enttarnen von Fake News können zusätzlich hilfreich sein. Lernende sollen angehalten werden, Informationen kritisch zu hinterfragen und im Zweifelsfall im Internet zu überprüfen, ob es sich um eine Fälschung handelt.

Fälschungen auf der Spur

Die Verbreitung von Deepfakes einzudämmen, ist ein sehr schwieriges Unterfangen – erheblich schwieriger als das Erstellen solcher KI-Manipulationen. Gut zu wissen: Es ist nicht immer eine rein individuelle Aufgabe, Fälschungen zu erkennen – auch Tools können dabei helfen. Beispiele dafür sind etwa die Detektoren deepware.ai oder der DeepFake-O-Meter.

Defame Fakes – ein Projekt finanziert im Sicherheitsforschungs-Förderprogramm KIRAS des Bundesministeriums für Finanzen – hat es sich zum Ziel gesetzt, Werkzeuge und Maßnahmen zur Erkennung und Prävention von Deepfakes zu entwickeln. Forschende im Projekt defalsif-AI sowie des GADMO (German-Austrian Digital Media Observatory) arbeiten jeweils an der Entwicklung von KI-Werkzeugen zur Überprüfung medialer Inhalte.

Deepfakes als Bedrohung für die Gesellschaft

Für den demokratischen Diskurs sind Deepfakes eine Gefahr. Sie werden gezielt eingesetzt, um politische Kontrahenten zu diffamieren oder den politischen Diskurs zu zerrütten. Versuche, Einfluss auf den Wahlkampf zu  nehmen, oder Berichte über Stimmen-Deepfakes von Politikern waren im heurigen Superwahljahr schon mehrmals Thema in den Medien. Täuschend echt wirkende Manipulationen von Politiker*innen können auch eine Gefahr für die nationale Sicherheit sein.

Durch die Häufung von Deepfakes verlieren Menschen zunehmend das Vertrauen in mediale Inhalte, was die paradoxe Konsequenz haben kann, dass sie Echtes für Fake halten. Um diesen sog. „Drake-Effekt“ geht es auch in einer Folge des KI-Podcasts in der ARD-Audiothek.

Wie die Politik reagiert: Regulierungen und ihre Auswirkungen

Zu den nennenswertesten politischen Maßnahmen im Kampf gegen Desinformation zählt insbesondere der Digital Services Act der EU, der regulierende Vorschriften für Online-Plattformen vorsieht.

In Bezug auf politische Wahlen wurden von der EU-Kommission Leitlinien zur Minderung systemischer Risiken veröffentlicht. Diese sehen u.a. vor, dass große Online-Plattformen und -Suchmaschinen dafür Sorge tragen müssen, KI-generierte Inhalte zu kennzeichnen, um so der Verbreitung von Deepfakes entgegenzuwirken.

Nutzer*innen der Video-Plattform YouTube sind beim Hochladen von Content inzwischen verpflichtet, veränderte oder synthetische Inhalte zu kennzeichnen.

Auch in der europäischen KI-Verordnung (AI Act) wird auf Deepfakes eingegangen. Die im Regulierungsvorschlag der Europäischen Kommission beschriebenen Maßnahmen werden aber auch kritisch diskutiert.

Gutes tun mit der Deepfake-Technologie

Die Technologie hinter Deepfakes könnte auch positive Veränderungen bewirken, da sich mit ihr etwa soziale oder krankheitsbedingte Barrieren überwinden ließen. Beispiele für die Potenziale der Technologie gibt OpenAI in der Ankündigung seines neuen KI-Tools „Voice Engine“. Mit dieser KI kann etwa Patient*innen geholfen werden, die ihre Stimme aufgrund einer Erkrankung verloren haben. Auf der Grundlage vergangener Audio-Aufnahmen der betroffenen Person kann die KI ihre Stimme rekonstruieren.

Dass mit den Technologien hinter Deepfakes nicht per se böse Absichten verbunden sind, zeigen etwa Beispiele wie der digitale Klon des verstorbenen Künstlers Salvador Dali oder KI-generierte Avatare, die u. a. in der Lehre eingesetzt werden können. Zwar sind die genannten Anwendungsfälle diskussionsbedürftig, sie verfolgen aber keine Täuschungsabsicht, wie das bei Deepfakes der Fall ist.

Weitere Informationen:
Creative Commons License Dieser Text ist unter CC BY 4.0 International lizenziert.

Verwandte Artikel