Manipulierte Porno-Videos:Menschen müssen aufhören, ihren Augen zu trauen

Deepfake Video Amy Adams Nicolas Cage

Hätten Sie's erkannt? Nicolas Cage als Lois Lane, genauer, Cages' Kopf auf dem Körper von Amy Adams, die im Superman-Film "Man of Steel" Lois Lane spielt.

(Foto: Screenshot: SZ)

Eine App ermöglicht es Laien, Gesichter von Prominenten in Hardcore-Pornos zu montieren. Das erschreckend perfekte Ergebnis erschüttert die Glaubwürdigkeit von Bildern und Videos.

Von Bernd Graff

Das Jahr 2017 ist als Jahr der großen Lüge in die Geschichte eingegangen, als das Jahr, in dem Alternativen zur Wirklichkeit von präsidialer Seite hoffähig gemacht wurden. "Fake News" wurde zum Kampfbegriff, die Beweis- und Bindekraft des Faktischen grundsätzlich in Zweifel gezogen: Was stimmt noch, wenn Lügen zu "alternativen Tatsachen" werden? Die Semantik erwies sich als beliebig dehnbar, Begriffe verloren ihre Bedeutung. Sie "zerfielen im Munde wie modrige Pilze", so beschrieb Hugo von Hofmannsthal einst die Sprachkrise des Fin de Siècle.

Das noch junge Jahr 2018 konnte Maß und Qualität der Lügen dann allerdings noch einmal deutlich steigern, ja, es könnte in die Geschichte eingehen als das Jahr, in dem die Lüge den Menschen direkt ins Gesicht gelegt wurde. Im wörtlichen Sinne. Denn Gesichter lassen sich fortan per App in beliebige Kontexte einfügen. Jeder kann jeden Kopf auf jeden Körper setzen. Nicht bloß auf Fotos, nein, in Filmen.

Fakeapp heißt die Software dazu, die in die Welt gesetzt wurde sie von jemandem, der sich "Deepfakes" nennt. Vielleicht nicht ganz überraschend wurden als erstes Pornos mit diesem Programm bearbeitet. Die ersten Sexlügenvideos erstellten Nutzer, die gerade mal wussten, wie man einen Rechner anmacht. Doch wenn man die üblichen Next-to-perfect-Retuschen einzelner Fotos per Photoshop kennt, ahnt man die Qualität der Filmchen: Es sind Schmuddel-Filme, die vorrangig prominente Köpfe auf den Körpern von Pornodarstellern bei der Verrichtung ihrer Arbeit zeigen, doch man bemerkt die Montage nicht: Die Schatten stimmen, die Haare fallen natürlich, die Mimiken, vor allem die Blicke wirken authentisch.

Aber sind das Lügen? Oder geht es doch nur um einen großen Bilderspaß, ums Ausprobieren, um Collage 2.0 gewissermaßen, vielleicht auch nur um den Nachweis von Machbarkeit? Wer noch der Aussagekraft von digitalen Bildern glaubt, wo sogar ein Sonnenuntergang auf dem Smartphone in Echtzeit aufgehübscht, also manipuliert wird, ist doch selber schuld.

Ein Nutzer schaut Pornos "erstmals mit beiden Händen an der Tastatur"

Und ist die Biegung von Narrativen nicht letztlich so faszinierend, weil, wie ein Nutzer in den einschlägigen Foren schrieb, er "diese Pornos schaut, erstmals mit beiden Händen an der Tastatur, völlig hingerissen, aber jetzt nur begierig zu erfahren, wie um Himmels willen das bloß so perfekt gemacht werden kann".

Denn in diesen Videos bewegen sich nun Maisie Williams, Taylor Swift, Aubrey Plaza und vor allem Nicolas Cage so, als ob sie "wirklich" gefilmt worden wären. Dass man Cage bereits in nahezu jeden Blockbuster von James Bond bis Superman, sogar in weibliche Hauptrollen hineinmanipuliert hat, mag übrigens daran liegen, dass er 1997 in einem Film mitgespielt hat, der - haha! - "Face/off" hieß.

Klar ist auch: Weder die Stars noch die Pornosternchen, deren Körper nun als bloße Gesichter-Vehikel bei der Geschlechterakrobatik noch weiter degradiert werden als ohnehin schon, sind dafür um ihre Erlaubnis gebeten worden. Und darum sind, trotz einer, sagen wir, herausfordernden Rechtslage, die meisten dieser Celebrities-Videos vor wenigen Tagen in einer Säuberungsaktion aller sozialen Medien - Twitter, Reddit, Facebook, Imgur, Gfycat und sogar Pornhub - gleichzeitig entfernt worden. Der Rest enthält schwarze Schambalken, was sehr lustig ist, da die verhüllten Körperteile ja gerade nicht zu den darauf gesetzten Gesichtern gehören. Doch Zahnpasta, so sagt man wohl, kriegt man nicht mehr zurück in die Tube.

Selbst Computer-Laien können "Deepfakes" erstellen

Face Swap nannte man das Verfahren, als es noch nur lustig war. Im Frühjahr des letzten Jahres tauschte eine künstliche Intelligenz auf Smartphones Doppelporträts mehr schlecht als recht gegeneinander aus: Hund gegen Herrchen, Luftballon gegen Mopsgesicht, so was. Nun aber sieht man ganze Filme mit Emma Watson, Scarlett Johansson und Natalie Portman, die sehr überzeugend in Hardcore-Kontexte eingebettet sind: "Excellent and very convincing" seien sie, wie das Magazin Forbes es vornehm formulierte.

So sehr, dass sich zu Jahresbeginn ganze Communities um den anonymen Nutzer "Deepfakes" scharten, nachdem das Internet-Magazin Motherboard erstmals in allgemein verständlicher Sprache über das Verfahren berichtet hatte. Danach explodierte das Interesse. Eine Reddit-Community brachte es in vier Wochen auf 100 000 Abonnenten.

"Deepfakes" zeigte ihnen allen, wie man noch von den ältesten Windows-Rechnern aus auf das Maschinenlernsystem "Tensorflow" für den digitalen Gesichtstransfer zugreift, also auf jene künstliche Intelligenz, die Google 2017 Wissenschaft und Forschung zur Verfügung gestellt hatte. "Deepfakes" veröffentlichte dann die frei verfügbare Software Fakeapp (inzwischen Version 2.1). Damit kann nun jeder, der einen Computer einzuschalten versteht, die Gesichter der Traumfabrik dorthin versetzen, wo er sie gerne sähe.

Menschen haben KIs programmiert, die sich selbst optimieren

Es ist ja eine der größten Ironien des Anthropozäns, also jener Epoche, in der der Mensch Natur, Umwelt, ja die Geschicke der Erde bestimmt, dass er seinen Grips darauf verwendet, künstliche Intelligenzen sich selbst optimieren zu lassen. Deren Erfolge stellen sich nun oft binnen Monatsfrist ein, "deep learning" nennt man das. Es erfolgt über Netzwerke, deren Aufbau dem menschlichen Gehirn nachgeahmt ist. Maschinen können mittlerweile in Abermillionen Fotos einzelne Individuen identifizieren. "Deepface" heißt denn auch das entsprechende System von Facebook.

Der Nutzer "Deepfakes" dürfte sich für sein Pseudonym von diesem Namen inspiriert haben lassen. Seine Identität ist ebenso unbekannt wie seine Absichten. Im vergangenen Sommer synthetisierten Wissenschaftler der University of Washington mithilfe künstlicher Intelligenzen einen "Fake Obama", sie kreierten aus Bild- und Tonmaterial des "echten" Barack Obama ein künstliches TV-Interview mit dem Präsidenten, das nie so geführt wurde.

Menschen dürfen nicht mehr glauben, was sie sehen

"Deepfakes" geht darüber noch hinaus. Er verwendet die Ergebnisse von Googles (statischer) Bildersuche, um Porträts eines Prominenten aus unterschiedlichen Perspektiven mit möglichst vielen Gesichtsausdrücken zu bekommen. Die künstliche Intelligenz bettet sie dann passgenau in die Pornovorlage ein. Der Algorithmus erledigt das "on the fly", im Vorübergehen, wie "Deepfakes" es nicht ohne Stolz ausdrückte.

Diese Videos behaupten ihre eigene (gelogene) Wahrheit noch unverfrorener als die Wortlügen eines twitternden Präsidenten, und mit größerer Evidenz. Menschen glauben, was sie sehen. Doch das sollten sie sich schleunigst abgewöhnen. Denn nun muss jeder Videobeweis als potenziell gefälscht gelten, Rache-Pornos genauso wie die mutmaßlichen Belege von Überwachungskameras. Die Beweiskraft von Bildern ist erschüttert. Höchste Zeit, dass die Hersteller von Filmkameras unmanipulierbare Wasserzeichen erfinden, um Filme zu kennzeichnen, die in Wirklichkeit aufgenommen worden sind. Andererseits: Wer will noch, dass etwas "real" ist?

Zur SZ-Startseite

Lesen Sie mehr zum Thema

Jetzt entdecken

Gutscheine: