Deepfakes:Dein Gesicht im Porno

Lesezeit: 3 min

Deepfaker machen mit fremden Gesichtern Geschäfte und üben so Gewalt aus. (Foto: imago stock&people)

Mit künstlicher Intelligenz lassen sich Videos glaubwürdig manipulieren. Die Opfer solcher Deepfakes sind fast immer Frauen - eine Gefahr für die ganze Gesellschaft.

Kolumne von Kathrin Werner, München

Helen Mort hatte in ihrem Leben noch nie intime Fotos von sich verschickt. Doch irgendjemand, ein Bekannter oder ein Fremder, hat harmlose Fotos von ihr aus sozialen Medien gefischt und sie auf eine Porno-Plattform hochgeladen, damit andere User dort ihr Gesicht auf die Körper von Pornodarstellerinnen montieren. Möglichst Hardcore sollte das Ganze sein, forderte er auf. "Meine Tortur hat mich verängstigt, beschämt, paranoid gemacht und niedergeschmettert", sagt die britische Schriftstellerin, die im vergangenen Jahr auf die Pornos mit sich selbst gestoßen ist.

Die meisten Menschen wollen nicht in Pornos auftauchen, für die sie sich selbst nicht ausgezogen haben. Die eine Hälfte der Menschheit kann davon ausgehen, dass das wahrscheinlich nicht passieren wird. Die andere Hälfte sind Frauen. Frauen wie Helen Mort.

Deepfake nennt man es, wenn eine gut trainierte künstliche Intelligenz, ein Video manipuliert und Einstellung für Einstellung durchgeht, bis es tatsächlich so aussieht, als gehöre der Kopf zu dem fremden Körper, als würde da jemand sprechen und sich bewegen, obwohl er selbst davon gar nichts weiß. Je überzeugender das werden soll, desto mehr Rechenkraft braucht der Computer und desto mehr Technikverständnis der Anwender. Oder man bestellt einfach bei den zahlreichen Auftrags-Deepfakern im Netz ein maßgefertigtes Video. Wer nicht allzu viel Wert darauf legt, auch den letzten Experten auszutricksen, fertigt ein Cheapfake an. Dafür gibt es Apps. Im vergangenen Jahr wurde ein Bot in der Chat-App Telegram berühmt, der automatisiert Nackt-Deepfakes aus Hunderttausenden eingeschickten Fotos erstellte. Kosten: 1,25 Dollar pro Bild.

Die Anzahl der gefälschten Videos im Internet wächst seit 2018 exponentiell und verdoppelt sich etwa alle sechs Monate, analysiert die Firma Sensity, deren Software Deepfakes enttarnt. Mehr als 90 Prozent der gefälschten Videos zeigen Pornografie, und wiederum fast alle davon haben eine Protagonistin, die davon nichts wusste. Häufig sind die Opfer Frauen, die in der Öffentlichkeit stehen, Schauspielerinnen wie Emma Watson oder Sängerinnen wie Lena Meyer-Landrut. Doch es trifft auch die Nachbarin, die Kollegin, die Ex-Freundin. Eine überehrgeizige Mutter in den USA hat kürzlich Deepfakes angefertigt, um Rivalinnen ihrer Tochter aus dem Cheerleading-Team zu mobben. In Indien wurde die Enthüllungsjournalistin Rana Ayyub mit einem Deepfake-Pornovideo angegriffen, das Millionen Handys erreichte. Ayyub landete mit Angstzuständen im Krankenhaus und fühlte sich danach gehemmter in ihrer Arbeit.

Die Videos sind eine Gefahr für die Demokratie

Auch virtuelle Gewalt tut weh. Sie kann Frauen zum Schweigen bringen, sie aus dem öffentlichen Leben drängen - und zielt oft genau darauf ab. Doch die Welt kann sich schweigende Frauen nicht länger leisten. Wir brauchen mehr Frauen in Politik, Wirtschaft, Kultur und Journalismus. Also müssen wir sie besser schützen.

Deepfakes sind eine Gefahr für die Demokratie. Bewusst gestreute Fehlinformationen im Internet sind eine mächtige Waffe, die durch Deepfakes noch überzeugender und mächtiger wird. Man stelle sich nur einmal vor, welchen Schaden es anrichten würde, wenn ein Video zeigt, wie ein Pharmaboss Angela Merkel einen dicken Stapel 100-Euro-Scheine überreicht. Oder in dem Annalena Baerbock mit Armin Laschet Händchen hält.

An dieser Stelle schreiben jeden Dienstag Marc Beise, Helmut Martin-Jung, Jürgen Schmieder und Kathrin Werner im Wechsel. Illustration: Bernd Schifferdecker (Foto: N/A)

Menschen müssen lernen, dass man sich im Grunde auf nichts verlassen kann, was man sieht. Das widerspricht dem seit jeher geprägten Selbstverständnis. Seeing is believing heißt es auf Englisch. Was ich mit eigenen Augen gesehen habe, das glaube ich. Es wird ein langer Prozess sein, bis sich ein gesundes Misstrauen verbreitet hat. Und dann stellt sich die Frage, welches Misstrauen gesamtgesellschaftlich gesund ist. Schließlich dokumentieren Bilder Ereignisse. Sie sollen zeigen, was wahr ist. Wer gesehen hat, wie ein weißer Polizist sein Knie fast neun Minuten auf den Hals des Schwarzen George Floyd drückte, hat es schwerer, Rassismus und Polizeigewalt zu leugnen. Es ist wichtig für eine funktionierende Gesellschaft, dass Fakten belegbar sind. Nur wie, wenn man selbst den eigenen Augen nicht mehr trauen kann?

Lange hieß die Antwort: Menschen müssen Medienkompetenz erwerben. Sie müssen lernen, zwischen Wahrheit und Fälschung zu unterscheiden. Doch selbst Experten haben Schwierigkeiten, die besonders gut gefälschten Videos als solche zu identifizieren. Und die Technik wird immer besser. Die Lösung kann nicht beim Einzelnen liegen, sondern muss systematisch sein - es braucht Gesetze. Doch wie immer hängt die Regulierung dem technischen Fortschritt hinterher. Gute Gesetze zu schreiben, ist komplex. Ein Komplett-Bann wäre falsch, denn die Technik hat positive Anwendungsbereiche. In einem Film über Aktivisten, die für Homosexuelle und Transgender in Tschetschenien kämpfen, ersetzten zum Beispiel im vergangenen Jahr Fake-Charaktere die gefährdeten Whistleblower. Und Deepfakes sind ein Mittel der Satire. Es spräche, nur so als Idee, nichts dagegen, die Maskenkorruptionspolitiker Nüßlein, Sauter und Löbel ein bisschen zu ABBAs "Money, Money, Money" tanzen zu lassen.

Technik lässt sich nur mit Technik bekämpfen und mit Gesetzen, die Technik einbezieht, statt sie zu verbannen. Denkbar wäre etwa ein verpflichtender Deepfake-Scanner, der Websites, insbesondere Porno- und Social-Media-Plattformen, durchsucht, manipulierte Medien findet und meldet. Gefälschte Pornos müssen verboten und die Faker bestraft werden, die mit fremden Gesichtern Geschäfte machen und Gewalt ausüben. Dichterin Helen Mort hat eine Petition für ein Deepfake-Gesetz in Großbritannien gestartet. Sie lässt sich nicht stummschalten, sagt sie. "Ich möchte, dass Deepfakes als Form von Hasskriminalität angesehen werden."

© SZ - Rechte am Artikel können Sie hier erwerben.
Zur SZ-Startseite

SZ PlusManipulierte Videos
:Wer hinter dem fast perfekten Tom-Cruise-Fake steckt

Millionen Menschen sahen die Videos, auf denen der Schauspieler herumstolperte - oder war das gar nicht Tom Cruise? Der Belgier Chris Umé erzählt, wie er mit Deep Fakes eine Debatte anstoßen will.

Von Simon Hurtz

Lesen Sie mehr zum Thema

Jetzt entdecken

Gutscheine: