Zum Inhalt springen

Was sind Deepfakes und wie erkennst Du sie?

Deepfakes sind künstlich erstellte Videos, Bilder oder Audiodateien, die mithilfe von Deep Learning Modellen erstellt wurden. Es werden dabei beispielsweise vorhandene Videosequenzen genutzt und durch das Ersetzen von Gesichtern gefälscht. Sie sollen möglichst realistisch wirken, obwohl sie von einem KI-Modell erzeugt wurden. Neben der Nutzung von Deepfakes für private Videos, können damit auch gezielte Falschinformationen verbreitet werden.

Wie werden Deepfakes gemacht?

Aktuell werden vor allem zwei technische Modelle genutzt, um Deepfake Videos zu produzieren.

Die Autoencoder sind Modelle aus dem Bereich der Künstlichen Intelligenz, die aus einem Encoder-Part und einem Decoder Part bestehen. Sie werden eigentlich dafür genutzt, um eine komprimierte und trotzdem informationshaltige Repräsentation für unstrukturierte Daten zu lernen. Wir können zum Beispiel als Input und Output dasselbe Bild nutzen. Dadurch würde der Autoencoder eine möglichst komprimierte Vektordarstellung des Bildes (im Schaubild: Code) erlernen, in der alle wichtigen Merkmale abgespeichert sind. Diesen Vektor nutzt dann wiederum der Decoder, um daraus wieder das ursprüngliche Bild zu erzeugen. Je besser die erlernte Vektorrepräsentation des Autoencoders, umso realistischer und besser ist auch das erzeugte Bild.

Struktur eines Autoencoders | Quelle: Towards Data Science

Für einen Deepfake werden insgesamt zwei Autoencoder trainiert. Das erste Modell wird mit Bildern oder Videos, der Person gefüttert, die im Endprodukt zu sehen sein soll. Meistens sind dies Prominente, Politiker oder Sportler, in unserem Beispiel Person A. Ein zweites Modell trainiert man auf Bildern einer anderen Person (Person B), die die zu imitierende Mimik oder Gestik vorgibt. Wenn diese beiden Modelle austrainiert sind, nutzt man ein Bild der Person B und lässt es mit dem Encoder aus dem zweiten Modell enkodieren. Den resultierenden Vektor daraus gibt man dann in den Decoder aus dem ersten Modell, der daraus ein Bild erstellt, das aussieht wie Person A, aber die Bewegungen und Mimik von Person B übernommen hat.

Die sogenannten Generative Adversarial Networks sind die zweite Möglichkeit ein KI-Modell auf die Erstellung von Deepfakes zu trainieren. Kurz gesagt trainieren wir dafür zwei Neuronale Netze zusammen. Das erste wird darauf trainiert künstliche Bilder herzustellen, die möglichst viele Merkmale mit den ursprünglichen Trainingsbildern gemeinsam haben. Das zweite Netzwerk wiederum versucht die Unterschiede zwischen den künstlich erstellten Bildern und den Originalbildern herauszufinden. Wir trainieren also zwei Netzwerke, die sich in einem Wettstreit gegeneinander befinden und dadurch beide immer besser werden.

Welche Arten von Deepfakes gibt es?

Das Trainieren solcher Modelle und entsprechend auch die Erstellung von guten Deepfakes ist sehr zeit- und rechenintensiv. Durch die großen Fortschritte im Bereich der Graphics Processing Unit (GPU) ist diese Technik erst für die breite Masse zugänglich geworden, da die Trainingskosten dadurch deutlich gesunken sind. Die meisten Deepfake Dateien lassen sich in eine der folgenden Kategorien einordnen:

  • Face Swapping: Das Gesicht und die Mimik von Person A soll möglichst auf den Körper von Person B projiziert werden. Dies kann sogar soweit gehen, dass der komplette Körper von Person B in einem Video oder Bild durch den Körper von Person A ersetzt wird.
  • Body Puppetry: Es werden Bewegungen, Gestiken oder Mimiken von Person A aufgezeichnet und diese sollen dann künstlich von Person B übernommen werden.
  • Voice Swapping: Ein frei geschriebener Text soll mit der Stimme einer Person möglichst authentisch vorgetragen werden. Diese Methode kann beispielsweise auch mit Body Puppetry kombiniert werden.

Wie kann man Deepfakes erkennen?

Qualitativ hochwertige Deepfakes sind für das bloße Auge und Neulinge in diesem Bereich erstmal nur schwierig oder sogar gar nicht zu erkennen. Im Allgemeinen gibt es zwei Ansätze, um solche gefälschten Video- oder Audiodateien zu entlarven.

Der erste Ansatz beschäftigt sich weniger mit der konkreten Datei und vielmehr mit den Umständen. Folgende Fragen können hilfreich sein im Umgang mit Deepfakes:

  • Würde die gezeigte Person wirklich so etwas tun oder sagen? Ist es zu erwarten, dass das Gezeigte wirklich passiert ist?
  • Findet man andere Quellen, bspw. Videos, Zeitungsartikel etc., die das Gezeigte bestätigen?
  • Findet man andere Aufnahmen derselben Szene aus einem anderen Blickwinkel?

Falls diese Fragen mit „Ja“ beantwortet werden können, ist die Gefahr einem Deepfake zum Opfer gefallen zu sein schonmal deutlich geringer. Darüber hinaus gibt es jedoch noch detailliertere und technischere Fragen, die Aufschluss über einen Deepfake geben können:

  • Gibt es typische Deepfake Merkmale, bspw. ein perfekt symmetrisches Gesicht, eine schiefe Brille, zwei verschiedene Ohrringe oder ähnliches?
  • Sehen die Lippenbewegungen menschlich aus? Passen sie zum gesprochenen Text?
  • Blinzelt die Person ungewöhnlich oft?

Zum Training haben wir am Ende des Artikels einige Videos verlinkt, die nachgewiesene Deepfakes sind. Dort kannst Du gerne testen, ob Du sie auf Anhieb erkannt hättest. Jedoch gibt es auch Software und Programme, die bei der Erkennung von solchen Fälschungen helfen.

Es gibt mehrere Arten von Software zur Erkennung von Fälschungen. Deepfake-Erkennungs-Apps nutzen maschinelles Lernen und andere Techniken, um Videos und Bilder auf Anzeichen von Manipulation zu analysieren. Video- und Audioanalysesoftware kann Deepfakes erkennen, indem sie die Audio- und visuellen Merkmale eines Videos analysiert, z. B. Augenbewegungen, Blinzelmuster und Audi1omuster.

Einige Unternehmen erforschen die Verwendung von Blockchain-basierten Zertifizierungssystemen, um die Authentizität digitaler Medien zu überprüfen und eine digitale Signatur oder ein Wasserzeichen zu erstellen, das bestätigt, dass ein Video oder Bild nicht manipuliert wurde. Forscher entwickeln Deep-Learning-Algorithmen zur Erkennung von Fälschungen, indem sie maschinelle Lernverfahren einsetzen, um Videos und Bilder auf Anzeichen von Manipulationen zu analysieren.

Worin liegt die Gefahr von Deepfakes?

Deepfakes können uns in vielen Bereichen des alltäglichen Lebens eine Gefahr darstellen.

Es ist beispielsweise möglich, dass diese künstlichen Dateien für den sogenannten CEO-Fraud genutzt werden. Man bekommt dabei einen möglichst realistischen Anruf des Vorgesetzten oder sogar der Geschäftsführung, der darauf abzielt Geldüberweisungen an Betrüger vorzunehmen. Wenn wir die echten Stimmen von Kollegen oder Vorgesetzten hören, werden wir wahrscheinlich nicht so misstrauisch sein, wie bei einer Pishing-Mail mit einem schadhaften Link im Anhang.

Darüber hinaus gibt es jedoch noch viel schwerwiegendere Gefahren, die bei einer weiten Verbreitung von qualitativ hochwertigen Deepfakes drohen. Mit diesen Mediendateien lassen sich gezielte Desinformationen verbreiten, indem anstößige Videos oder Audiodateien erstellt und verbreitet werden. Dies führt nicht nur dazu, dass einzelne Personen in ein schlechtes Licht gerückt werden, sondern es kann im schlimmsten Fall sogar zu Verwerfungen in einer Gesellschaft führen.

Wie werden diese Fälschungen rechtlich gehandhabt?

Das Aufkommen von Deepfakes hat verschiedene rechtliche und ethische Überlegungen aufgeworfen, die es zu berücksichtigen gilt. Hier sind einige der wichtigsten Fragen:

  • Missbrauch persönlicher Daten: Die Erstellung von Deepfakes, bei denen das Bild, die Stimme oder persönliche Daten einer Person ohne deren Zustimmung verwendet werden, wirft Fragen zum Datenschutz auf. Die unbefugte Verwendung des Bildes einer Person kann auch zu Rufschädigung und sogar zu finanziellen Verlusten führen.
  • Betrug und Fehlinformationen: Deepfakes können zur Erstellung falscher oder irreführender Informationen verwendet werden, z. B. für gefälschte Nachrichten oder politische Propaganda. Die Verbreitung solcher Inhalte kann zu sozialen und politischen Unruhen führen, den Ruf von Personen und Organisationen schädigen und sogar die nationale Sicherheit beeinträchtigen.
  • Kriminelle Nutzung: Deepfakes können zu kriminellen Zwecken wie Erpressung oder Schutzgelderpressung eingesetzt werden, indem falsche Beweise für ein Verbrechen geschaffen oder Beweise in einem Strafverfahren manipuliert werden.
  • Rechtliche Haftung: Es stellt sich die Frage, wer rechtlich für die Erstellung und Verbreitung von Deepfakes verantwortlich ist. Dazu gehört die Haftung von Technologieanbietern, Urhebern und Nutzern.
  • Rechte des ersten Verfassungszusatzes: Deepfakes werfen Fragen zu den Grenzen der freien Meinungsäußerung und dem Recht auf die Erstellung und Verbreitung von Falschinformationen auf.
  • Einverständnis und Urheberrecht: Die Erstellung und Verbreitung von Deepfakes unter Verwendung von urheberrechtlich geschütztem Material oder ohne Zustimmung des Betroffenen wirft rechtliche Fragen im Zusammenhang mit geistigem Eigentum und Datenschutz auf.
  • Verifizierung und Authentifizierung: Die Verbreitung solcher Dateien verdeutlicht den Bedarf an besseren Systemen und Methoden zur Überprüfung und Authentifizierung digitaler Medien.

Dies sind nur einige der rechtlichen und ethischen Überlegungen zu Deepfakes. Da sich die Deepfake-Technologie weiter entwickelt, ist es wichtig, dass politische Entscheidungsträger, Technologieanbieter und Nutzer zusammenarbeiten, um rechtliche Rahmenbedingungen und ethische Richtlinien zum Schutz der Privatsphäre, zur Bekämpfung von Betrug und Desinformation und zur Wahrung der Integrität digitaler Medien zu entwickeln.

Das solltest Du mitnehmen

  • Deepfakes sind künstlich erstellte Medien, wie Videos, Bilder oder Audiodateien, die mithilfe von Deep Learning Methoden erstellt worden.
  • Es wird versucht Personen in einem anderen Kontext oder Umfeld darzustellen, von dem es keine originalen Dateien gibt.
  • Technisch gesehen werden diese Dateien mithilfe von sogenannten Autoencodern oder General Adversarial Networks erstellt.
Anomaly Detection / Anomalieerkennung

Was ist die Anomalieerkennung?

Entdecken Sie effektive Techniken zur Anomalieerkennung. Erkennen Sie Ausreißer und ungewöhnliche Muster, um bessere Einblicke zu erhalten.

t5 Model / t5 Modell

Was ist das T5-Model?

Entdecken Sie die Leistungsfähigkeit des T5-Modells für NLP-Aufgaben - lernen Sie die Implementierung in Python und Architektur kennen.

Computer Vision

Was ist Computer Vision?

Einführung in die Computer Vision und ihre Anwendungen.

MLOps

Was ist MLOps?

Entdecken Sie MLOps und erfahren Sie, wie es den Einsatz von maschinellem Lernen revolutioniert. Erkunden Sie die wichtigsten Konzepte.

Jupyter Notebook

Was ist ein Jupyter Notebook?

Lernen Sie, wie Sie Ihre Produktivität mit Jupyter Notebooks steigern können! Entdecken Sie Tipps und Best Practices für Data Science.

ChatGPT

Was ist ChatGPT?

Entdecken Sie die Leistungsfähigkeit von ChatGPT - dem Sprachmodell, das von OpenAI trainiert wird und wie es das Spiel im NLP verändert.

Andere Beiträge zum Thema Deepfakes

  • Ein interessantes Video zur Erstellung eines Deepfakes von David Beckham, findest Du hier.
Das Logo zeigt einen weißen Hintergrund den Namen "Data Basecamp" mit blauer Schrift. Im rechten unteren Eck wird eine Bergsilhouette in Blau gezeigt.

Verpass keine neuen Beiträge!

Wir versenden keinen Spam! Lies die Details gerne in unserer Datenschutzrichtlinie nach.

Schlagwörter:
Cookie Consent mit Real Cookie Banner