Ideen müssen nicht immer perfekt sein. Manchmal reicht es, wenn sie gut sind. So ungefähr verteidigt Facebooks Chief Security Officer Alex Stamos das Pilotprojekt des Unternehmens zur Eindämmung sogenannter Rachepornos.

Kurz zusammengefasst läuft das Projekt so: Nutzer, die befürchten, jemand könne Bilder von ihnen auf Facebook oder Instagram verbreiten, die sie nackt oder beim Sex zeigen, können die Dateien vorsorglich selbst bei Facebook einreichen. Dort werden sie manuell geprüft und dann in eine Art digitalen Fingerabdruck umgerechnet, einen Hash. Dieser wird mit jedem neu bei Facebook und Instagram hochgeladenen Bild abgeglichen. Stimmt der Hash überein, wird das neue Bild nicht akzeptiert. Das ursprünglich eingereichte Bild löscht Facebook nach eigenen Angaben "nach kurzer Zeit". Aufbewahrt wird nur der Hash, der keine Rückschlüsse auf den genauen Bildinhalt zulässt.

Muss wirklich ein Mensch die Bilder prüfen?

Stamos erklärt Details dazu ausgerechnet auf Twitter, was aber einfach daran liegt, dass dort viele Experten für Informationssicherheit über das Projekt diskutieren – jene Szene, in der sich Stamos seit vielen Jahren bewegt. Viele von ihnen kritisieren, was auch die Leser des Artikels auf ZEIT ONLINE zum Thema umtreibt:

Wenn Facebook die Verbreitung von intimen Fotos gegen den Willen der Abgebildeten stoppen will, warum soll man sie dann selbst ans Unternehmen senden, damit ein Mitarbeiter sie prüfen, also ansehen kann? Ginge das nicht automatisiert? Wenn Facebook nicht das Bild braucht, um die Verbreitung von Kopien in seinem Ökosystem zu verhindern, sondern nur den Hash des Bildes, warum können Betroffene diesen Hash nicht lokal auf ihrem Rechner erstellen und ihn dann an Facebook schicken? Warum sollte man Facebook in dieser Angelegenheit überhaupt trauen?

"Uns ist klar, dass die Selbsteinreichung mit einem gewissen Risiko verbunden ist", schreibt Stamos. "Aber es ist ein Risiko, das wir dem real existierenden Leid der Opfer (hauptsächlich Frauen) entgegensetzen, die nicht verhindern können, dass jemand ihre intimen Fotos veröffentlicht." Facebook habe das System mit externen Wissenschaftlern und Hilfsorganisationen zusammen entwickelt.

"Eine Notfalloption"

Er verweist auf einen am Donnerstag veröffentlichten Blogpost seiner Kollegin Antigone Davis, Facebooks Head of Global Safety. Darin heißt es, das zunächst in Australien gestartete Projekt sei eine Erweiterung der schon bestehenden Option, Bilder zu melden, die bereits gegen den Willen der Abgebildeten geteilt werden. Es gehe hier um "eine Notfalloption, um die Verbreitung von vornherein zu vermeiden". Dass Facebook den Beitrag jetzt erst veröffentlicht hat, spricht dafür, dass das Unternehmen zuvor unterschätzt hat, wie groß das Interesse an dem Projekt sein würde.

Hilfreich sind deshalb auch die Erklärungen von Stamos. Zum jetzigen Zeitpunkt brauche Facebook Menschen, um die Bilder zu prüfen, schreibt er auf Twitter. Andernfalls könnte jemand versuchen, das System zu missbrauchen. Was er meint: Ohne menschliche Kontrolle könnte jemand beliebige Fotos einreichen und damit deren Verbreitung stoppen. Das könnten zum Beispiel Fotos sein, die eine politische Botschaft transportieren. Prominente (oder deren Anwälte) könnten versuchen, unliebsame Berichte auf diese Weise zu unterdrücken. Stamos' "at this time" bedeutet aber auch, dass irgendwann automatische Verfahren die menschliche Prüfung ersetzen könnten, wenn sie zuverlässig erkennen können, was ein Nacktbild ist.

Gegen die lokale Erstellung des Hashes spreche, dass die entsprechenden Algorithmen zu schnell überlistet werden könnten, wenn sie in Nutzersoftware hinterlegt würden, wo sie extrahiert und untersucht werden könnten. Verbleibt die Technik hingegen auf Facebooks Servern, ist es schwieriger, ihre genaue Funktion nachzuvollziehen.