Es ist üblich, dass wir den Inhalten von Video- und Audioaufnahmen Vertrauen schenken. Jedoch ermöglicht die künstliche Intelligenz (KI) eine präzise Nachbildung von Gesichtern oder Stimmen. Diese Nachbildung wird als Deepfake bezeichnet – ein Identitätstausch, der für Memes, Desinformation oder sogar pornografische Inhalte missbraucht werden kann.
Ein Blick auf die Deepfakes von Nicholas Cage oder Jordan Peeles Deepfake-Aufklärungsvideo verdeutlicht, dass wir es mit einer neuartigen, teils befremdlichen Technologie zu tun haben. Während diese Beispiele relativ harmlos erscheinen, werfen sie grundlegende Fragen über die Zukunft auf. Können wir Video- und Audioaufnahmen noch trauen? Können wir Personen für ihre Handlungen im Bild verantwortlich machen? Und sind wir auf die Auswirkungen von Deepfakes vorbereitet?
Deepfakes: Eine neue, einfache und schnell wachsende Technologie
Die Deepfake-Technologie existiert erst seit wenigen Jahren, hat sich aber rasant zu einer sowohl faszinierenden als auch beunruhigenden Entwicklung gemausert. Der Begriff „Deepfake“, der 2017 in einem Reddit-Thread geprägt wurde, beschreibt den Einsatz künstlicher Intelligenz zur Rekonstruktion des Aussehens oder der Stimme einer Person. Erstaunlicherweise kann fast jeder mit einem einfachen Computer, der passenden Software und etwas Zeit einen Deepfake erstellen.
Ob man es glaubt oder nicht, das Bild auf der linken Seite ist das Deepfake.
Wie bei jeder neuen Technologie gibt es auch bei Deepfakes einige Verwirrungen. Das Video von „betrunkener Pelosi“ ist ein gutes Beispiel dafür. Deepfakes werden mithilfe von KI konstruiert und zielen darauf ab, Personen zu imitieren. Das Video von Nancy Pelosi, das fälschlicherweise als Deepfake bezeichnet wurde, war in Wirklichkeit ein verlangsamtes und in der Tonhöhe verändertes Video, um einen undeutlichen Spracheffekt zu erzeugen.
Das unterscheidet Deepfakes auch von der CGI-Rekonstruktion von Carrie Fisher in Star Wars: Rogue One. Während Disney ein erhebliches Budget aufgewendet hat, um Carrie Fishers Gesicht zu studieren und von Hand nachzubilden, kann ein Computer-Enthusiast mit Deepfake-Software die gleiche Aufgabe kostenlos innerhalb eines Tages erledigen. KI macht die Arbeit unglaublich einfach, kostengünstig und überzeugend.
Die Erstellung eines Deepfakes
Wie ein Schüler im Klassenzimmer muss die KI „lernen“, ihre gewünschte Aufgabe zu erfüllen. Dies geschieht durch einen Prozess des „Ausprobierens und Irrtums“, der als maschinelles Lernen oder Deep Learning bezeichnet wird. Eine KI, die beispielsweise das erste Level von Super Mario Bros abschließen soll, wird das Spiel so lange spielen, bis sie den besten Weg zum Gewinnen gefunden hat. Die Person, die die KI entwickelt, muss einige Daten bereitstellen, um den Prozess in Gang zu setzen, sowie einige „Regeln“ für den Fall, dass etwas schiefgeht. Danach erledigt die KI die eigentliche Arbeit.
Das Gleiche gilt für die Deepfake-Gesichtserkennung. Die Wiederherstellung von Gesichtern ist jedoch nicht dasselbe wie das Gewinnen eines Videospiels. Um einen Deepfake von Nicholas Cage zu erstellen, der die Wendy Williams Show moderiert, benötigen wir:
Ein Zielvideo: Aktuell funktionieren Deepfakes am besten mit klaren, qualitativ hochwertigen Zielvideos. Daher stammen einige der überzeugendsten Deepfakes von Politikern, die oft unter konstanter Beleuchtung auf einem Podium stillstehen. Wir benötigen also ein Video von Wendy, die still sitzt und spricht.
Zwei Datensätze: Damit Mund- und Kopfbewegungen realistisch aussehen, benötigen wir einen Datensatz von Wendy Williams‘ Gesicht und einen Datensatz von Nicholas Cages Gesicht. Wenn Wendy nach rechts schaut, brauchen wir ein Foto von Nicholas Cage, der nach rechts schaut. Wenn Wendy den Mund öffnet, benötigen wir ein Bild von Cage, der seinen Mund öffnet.
Danach lassen wir die KI ihre Arbeit machen. Sie versucht immer wieder, den Deepfake zu erstellen und lernt dabei aus ihren Fehlern. Einfach, oder? Nun, im Grunde genommen erhalten wir dann ein Video mit Cages Gesicht auf Wendy Williams‘ Körper.