Zum Inhalt springen

Was sind Deepfakes und wie erkennst Du sie?

Deepfakes sind künstlich erstellte Videos, Bilder oder Audiodateien, die mithilfe von Deep Learning Modellen erstellt wurden. Es werden dabei beispielsweise vorhandene Videosequenzen genutzt und durch das Ersetzen von Gesichtern gefälscht. Sie sollen möglichst realistisch wirken, obwohl sie von einem KI-Modell erzeugt wurden. Neben der Nutzung von Deepfakes für private Videos, können damit auch gezielte Falschinformationen verbreitet werden.

Wie werden Deepfakes gemacht?

Aktuell werden vor allem zwei technische Modelle genutzt, um Deepfake Videos zu produzieren.

Die Autoencoder sind Modelle aus dem Bereich der Künstlichen Intelligenz, die aus einem Encoder-Part und einem Decoder Part bestehen. Sie werden eigentlich dafür genutzt, um eine komprimierte und trotzdem informationshaltige Repräsentation für unstrukturierte Daten zu lernen. Wir können zum Beispiel als Input und Output dasselbe Bild nutzen. Dadurch würde der Autoencoder eine möglichst komprimierte Vektordarstellung des Bildes (im Schaubild: Code) erlernen, in der alle wichtigen Merkmale abgespeichert sind. Diesen Vektor nutzt dann wiederum der Decoder, um daraus wieder das ursprüngliche Bild zu erzeugen. Je besser die erlernte Vektorrepräsentation des Autoencoders, umso realistischer und besser ist auch das erzeugte Bild.

Das Bild zeigt den schematischen Aufbau eines Autoencoders.
Aufbau eines Autoencoders | Foto: Towards Data Science

Für einen Deepfake werden insgesamt zwei Autoencoder trainiert. Das erste Modell wird mit Bildern oder Videos, der Person gefüttert, die im Endprodukt zu sehen sein soll. Meistens sind dies Prominente, Politiker oder Sportler, in unserem Beispiel Person A. Ein zweites Modell trainiert man auf Bildern einer anderen Person (Person B), die die zu imitierende Mimik oder Gestik vorgibt. Wenn diese beiden Modelle austrainiert sind, nutzt man ein Bild der Person B und lässt es mit dem Encoder aus dem zweiten Modell enkodieren. Den resultierenden Vektor daraus gibt man dann in den Decoder aus dem ersten Modell, der daraus ein Bild erstellt, das aussieht wie Person A, aber die Bewegungen und Mimik von Person B übernommen hat.

Die sogenannten General Adversarial Networks sind die zweite Möglichkeit ein KI-Modell auf die Erstellung von Deepfakes zu trainieren. Kurz gesagt trainieren wir dafür zwei Neuronale Netze zusammen. Das erste wird darauf trainiert künstliche Bilder herzustellen, die möglichst viele Merkmale mit den ursprünglichen Trainingsbildern gemeinsam haben. Das zweite Netzwerk wiederum versucht die Unterschiede zwischen den künstlich erstellten Bildern und den Originalbildern herauszufinden. Wir trainieren also zwei Netzwerke, die sich in einem Wettstreit gegeneinander befinden und dadurch beide immer besser werden.

Welche Arten von Deepfakes gibt es?

Das Trainieren solcher Modelle und entsprechend auch die Erstellung von guten Deepfakes ist sehr zeit- und rechenintensiv. Durch die großen Fortschritte im Bereich der Graphics Processing Unit (GPU) ist diese Technik erst für die breite Masse zugänglich geworden, da die Trainingskosten dadurch deutlich gesunken sind. Die meisten Deepfake Dateien lassen sich in eine der folgenden Kategorien einordnen:

  • Face Swapping: Das Gesicht und die Mimik von Person A soll möglichst auf den Körper von Person B projiziert werden. Dies kann sogar soweit gehen, dass der komplette Körper von Person B in einem Video oder Bild durch den Körper von Person A ersetzt wird.
  • Body Puppetry: Es werden Bewegungen, Gestiken oder Mimiken von Person A aufgezeichnet und diese sollen dann künstlich von Person B übernommen werden.
  • Voice Swapping: Ein frei geschriebener Text soll mit der Stimme einer Person möglichst authentisch vorgetragen werden. Diese Methode kann beispielsweise auch mit Body Puppetry kombiniert werden.

Wie kann man Deepfakes erkennen?

Qualitativ hochwertige Deepfakes sind für das bloße Auge und Neulinge in diesem Bereich erstmal nur schwierig oder sogar gar nicht zu erkennen. Im Allgemeinen gibt es zwei Ansätze, um solche gefälschten Video- oder Audiodateien zu entlarven.

Der erste Ansatz beschäftigt sich weniger mit der konkreten Datei und vielmehr mit den Umständen. Folgende Fragen können hilfreich sein im Umgang mit Deepfakes:

  • Würde die gezeigte Person wirklich so etwas tun oder sagen? Ist es zu erwarten, dass das Gezeigte wirklich passiert ist?
  • Findet man andere Quellen, bspw. Videos, Zeitungsartikel etc., die das Gezeigte bestätigen?
  • Findet man andere Aufnahmen derselben Szene aus einem anderen Blickwinkel?

Falls diese Fragen mit „Ja“ beantwortet werden können, ist die Gefahr einem Deepfake zum Opfer gefallen zu sein schonmal deutlich geringer. Darüber hinaus gibt es jedoch noch detailliertere und technischere Fragen, die Aufschluss über einen Deepfake geben können:

  • Gibt es typische Deepfake Merkmale, bspw. ein perfekt symmetrisches Gesicht, eine schiefe Brille, zwei verschiedene Ohrringe oder ähnliches?
  • Sehen die Lippenbewegungen menschlich aus? Passen sie zum gesprochenen Text?
  • Blinzelt die Person ungewöhnlich oft?

Zum Training haben wir am Ende des Artikels einige Videos verlinkt, die nachgewiesene Deepfakes sind. Dort kannst Du gerne testen, ob Du sie auf Anhieb erkannt hättest.

Worin liegt die Gefahr von Deepfakes?

Deepfakes können uns in vielen Bereichen des alltäglichen Lebens eine Gefahr darstellen.

Es ist beispielsweise möglich, dass diese künstlichen Dateien für den sogenannten CEO-Fraud genutzt werden. Man bekommt dabei einen möglichst realistischen Anruf des Vorgesetzten oder sogar der Geschäftsführung, der darauf abzielt Geldüberweisungen an Betrüger vorzunehmen. Wenn wir die echten Stimmen von Kollegen oder Vorgesetzten hören, werden wir wahrscheinlich nicht so misstrauisch sein, wie bei einer Pishing-Mail mit einem schadhaften Link im Anhang.

Darüber hinaus gibt es jedoch noch viel schwerwiegendere Gefahren, die bei einer weiten Verbreitung von qualitativ hochwertigen Deepfakes drohen. Mit diesen Mediendateien lassen sich gezielte Desinformationen verbreiten, indem anstößige Videos oder Audiodateien erstellt und verbreitet werden. Dies führt nicht nur dazu, dass einzelne Personen in ein schlechtes Licht gerückt werden, sondern es kann im schlimmsten Fall sogar zu Verwerfungen in einer Gesellschaft führen.

Das solltest Du mitnehmen

  • Deepfakes sind künstlich erstellte Medien, wie Videos, Bilder oder Audiodateien, die mithilfe von Deep Learning Methoden erstellt worden.
  • Es wird versucht Personen in einem anderen Kontext oder Umfeld darzustellen, von dem es keine originalen Dateien gibt.
  • Technisch gesehen werden diese Dateien mithilfe von sogenannten Autoencodern oder General Adversarial Networks erstellt.

Andere Beiträge zum Thema Deepfakes

  • Ein interessantes Video zur Erstellung eines Deepfakes von David Beckham, findest Du hier.
close
Das Logo zeigt einen weißen Hintergrund den Namen "Data Basecamp" mit blauer Schrift. Im rechten unteren Eck wird eine Bergsilhouette in Blau gezeigt.

Verpass keine neuen Beiträge!

Wir versenden keinen Spam! Lies die Details gerne in unserer Datenschutzrichtlinie nach.

Schlagwörter:
Cookie Consent mit Real Cookie Banner