Die Firma, die uns alle identifizieren will – Seite 1

Es klingt dystopisch: Ein kleines New Yorker Unternehmen namens Clearview hat eine App entwickelt, mit der man jede Person im Netz identifizieren können soll – und das nur anhand eines Fotos. Es reicht aus, das Bild einer Person hochzuladen, und schon spuckt die App ähnliche Fotos aus, inklusive Link auf die Quelle.

Möglich ist das dank einer Datenbank, in die rund drei Milliarden Bilder aus allen möglichen Quellen eingeflossen sind: Instagram-Selfies, Porträtfotos von der Website des Arbeitgebers, YouTube-Videos, Fotos von Nachrichtenseiten. Eine der größten Sammlungen ihrer Art – und vor allem interessant für Strafverfolgungsbehörden. Allein im vergangenen Jahr sollen 600 von ihnen begonnen haben, Clearview zu nutzen. So berichtet es die New York Times mit Verweis auf Unternehmensangaben, wobei nicht ganz klar ist, ob es sich dabei um 600 Behörden weltweit oder allein in den USA handelt.

Tatsächlich klingt beeindruckend, wozu das System bereits fähig sein soll: Beamte in Florida sollen mit seiner Hilfe etwa eine Diebin identifiziert haben. Dafür jagten sie Bilder aus einer Überwachungskamera durch die Clearview-App, die wiederum auf die Facebook-Seite der Frau verwies. Auf den dort angezeigten Fotos erkannte die Polizei dasselbe Tattoo, das auch die verdächtige Person auf der Überwachungskamera zierte.

Google traute sich nicht, Clearview schon

Noch scheint die App nicht für die Öffentlichkeit verfügbar zu sein. Doch stellt man sich vor, sie würde in die App-Stores von Google oder Apple gelangen und parallel würde ihre Datenbasis weiter wachsen, dann ist es nicht weit bis zu diesem dystopischen Szenario: dass praktisch jedermann jederzeit jede Person in der U-Bahn oder auf der Straße identifizieren kann – und umgekehrt auch stets fürchten muss, von jeder und jedem identifiziert zu werden. Die New York Times schreibt bereits von einem möglichen "Ende der Privatsphäre, wie wir sie kennen". Aber stimmt das wirklich?

Gesichtserkennung macht sich die Individualität unserer Gesichtszüge zunutze. Unser Gesicht ist wie ein Fingerabdruck, es macht uns eindeutig identifizierbar. Um es auch für Computer lesbar zu machen, übersetzt Software es in ein mathematisches Modell aus lauter Datenpunkten. Soll ein System nun herausfinden, ob ein Foto eine bestimmte Person abbildet, gleicht es diese Datenpunkte auf beiden Bildern ab. Daraus errechnet es die Ähnlichkeit, sprich: wie wahrscheinlich es ist, dass auf zwei Fotos dieselbe Person zu sehen ist. Das ist erst einmal nicht mehr als Mathematik. 

Das ist das Szenario, vor dem alle Menschen, die sich mit Gesichtserkennung befassen, gewarnt haben.
Florian Gallwitz, Professor für Medieninformatik

Solche Systeme gibt es schon länger. Google hat beispielsweise ein System namens FaceNet entwickelt (Schroff et al., 2015). Allerdings hatte der frühere Google-CEO Eric Schmidt schon 2011 gesagt, dass man die Technologie zurückhalte, da sie "in einer sehr schlechten Art und Weise" genutzt werden könne. Google hat also eine Grundlage gebaut, aber keine Suchmaschine für Gesichter veröffentlicht.

Die scheint nun Clearview geschaffen zu haben. Es überrasche ihn nicht, dass es ein solches Angebot nun gebe, sagt Florian Gallwitz, Professor für Medieninformatik an der Technischen Hochschule in Nürnberg. "Das ist das Szenario, vor dem alle Menschen, die sich mit Gesichtserkennung befassen, gewarnt haben." Schon ein Start-up mit wenigen Mitarbeiterinnen und Mitarbeitern könne heute Trainingsdaten sammeln und ein Gesichtserkennungssystem aufbauen, wenn es nur genug Rechenleistung und Speicherplatz zur Verfügung habe. Clearview sei dafür ein Beispiel.

Dabei scheint die US-Firma einige Regeln gebrochen zu haben, um an die Daten für ihr Gesichtserkennungssystem zu gelangen. Sie hat unter anderem Bilder von Facebook und Twitter in der Datenbank gespeichert. Dabei verbietet Twitter ausdrücklich, Bilder von Nutzerinnen und Nutzern für Gesichtserkennung zu verwenden. Und Facebook erlaubt es nicht, die Seite automatisiert nach Inhalten zu durchforsten. Viele Leute würden es dennoch tun und Facebook wisse das, sagte Clearview-Gründer Hoan Ton-That der New York Times. Von Facebook hieß es lediglich, dass man einen Verstoß gegen Nutzungsrechte prüfen werde. Wissenschaftler Gallwitz bezeichnet das Vorgehen von Clearview hingegen als "skrupellos".

Allerdings lohnt es sich, genauer hinzuschauen. Wie so oft, wenn Unternehmer behaupten, etwas Bahnbrechendes geleistet zu haben, bleiben auch diesmal einige, nicht ganz unwichtige Faktoren unbekannt.

Da ist etwa der Datensatz selbst. Clearview schreibt von drei Milliarden gesammelten Bildern. Das wäre sehr viel. Das Unternehmen selbst rühmt sich damit, dass seine Datenbank größer sei als die des FBI – was erst einmal nicht verwunderlich ist, wenn man das ganze Netz nach Bildern absucht. Allerdings ist zu vermuten, dass einige Gesichter mehrfach in dem Datensatz auftauchen. Heißt: Wären in dem System im Schnitt zehn Bilder zu einer Person zu finden, wären insgesamt 300 Millionen Menschen erfasst. Das wären immer noch sehr viele Menschen, keine Frage, aber dann wäre es eine Datenbank in der Größe der US-Bevölkerung – nicht knapp zwei Fünftel der Weltbevölkerung.

"Je größer die Datenbank, desto größer die Gefahr"

Und die Menge der Daten sagt an sich noch wenig über die Qualität des Gesichtserkennungssystems aus. In einem Werbeprospekt rühmt sich Clearview damit, genauer zu sein als Google und das chinesische Technologieunternehmen Tencent: Auf der Website der Firma Megaface, die speziell dazu entwickelt wurde, Gesichtserkennungssysteme zu testen, erzielte Clearview eine Trefferquote von 98,6 Prozent.

In der New York Times gab Clearview auf Nachfrage allerdings einen deutlich niedrigeren Wert an. Demnach finde die Gesichtserkennungssoftware in bis zu 75 Prozent der Fälle eine Übereinstimmung. Das würde aber auch bedeuten: In mindestens einem von vier Fällen erkennt das System eine Person nicht. Und ob die Übereinstimmung tatsächlich die gesuchte Person zeigt, ist noch einmal eine ganz andere Frage. Denn falsche Treffer, auch false positives genannt, benennt das Unternehmen nicht. Dabei ist gerade diese Quote wichtig. Denn sie gibt an, in wie vielen Fällen Personen fälschlicherweise dem Suchbild zugeordnet werden.

"Je größer die Datenbank, desto größer ist die Gefahr einer Fehlidentifizierung", sagt die Georgetown-Juristin Clare Garvie, eine Expertin für juristische Aspekte der Gesichtserkennung, in der New York Times. Man rede hier über eine riesige Menge zufällig ausgewählter Menschen. Und: Gesichtserkennung mag gut für weiße Menschen funktionieren, bei People of Color schneiden die Systeme im Allgemeinen deutlich schlechter ab (zum Beispiel Association for the Advancement of Artificial Intelligence: Raji, Buolamwini, 2019; NIST: Grother, 2019).

Automatisierte Gesichtserkennung sollte in Europa verboten werden.
Jurist Alexander Roßnagel

Den Zwecken der Strafverfolger könnte die Clearview-App dennoch genügen. "Für die Polizei ist es kein Problem, wenn sie zehn Verdächtige angezeigt bekommt statt nur einer Person", sagt Florian Gallwitz. Die Beamten hätten dann trotzdem vergleichsweise schnell einen Kreis an Verdächtigen und könnten von dort aus weiter ermitteln. Der Medieninformatiker sieht darin auch einen Unterschied zu der Gesichtserkennung, wie sie die Bundespolizei am Berliner Südkreuz getestet hat: Das dortige System sollte Gesichter in einer Menschenmasse erfassen und mit einem Datensatz abgleichen. Das sei komplizierter als ein konkret vorliegendes Gesicht in einer Datenbank zu finden, sagt Gallwitz.

Womit aber auch Clearview noch Probleme zu haben scheint: mit dem Winkel, aus dem ein Bild aufgenommen wurde. Die Fotos in der Datenbank des Unternehmens sind meistens auf Augenhöhe entstanden. Die Polizei nutzt aber oft Bilder von Überwachungskameras. Und die hängen meistens an der Decke oder hoch an den Wänden, weil sie ja nicht einzelne Personen überwachen, sondern einen ganzen Bereich überblicken sollen. Damit ein System genaue Angaben machen kann, braucht es aber möglichst viele Datenpunkte eines Gesichts. Ist es nur schräg von oben erkennbar, sinkt die Wahrscheinlichkeit eines Treffers.

Clearview-Gründer Ton-That gefällt das nicht: Überwachungskameras hingen zu hoch, "der Winkel ist falsch für eine gute Gesichtserkennung", klagt er in der New York Times. Für Menschen, die an öffentlichen Orten nicht erkannt werden wollen, ist das aber eine gute Nachricht. Schon mit einer Mütze oder einem Schal können sie sich aktuell noch vor solchen Systemen schützen. So machten es beispielsweise Demonstrantinnen und Demonstranten in Hongkong, damit die Polizei sie nicht identifizieren konnte.

Sich und seine Fotos davor zu schützen, in eine Datenbank wie die von Clearview zu gelangen, ist dagegen komplexer. Natürlich wäre es einfach, keine Bilder mehr hochzuladen. Aber erstens haben Menschen möglicherweise nicht immer Kontrolle darüber, welche Aufnahmen von ihnen im Netz auftauchen – etwa weil ein Freund ein Privatfoto auf Facebook hochlädt oder weil jemand zufällig frontal auf einem Touristenschnappschuss von einem berühmten Monument landet. Und zweitens ist es ein Unterschied, ob man seine Daten bei Facebook hochlädt – oder ob andere Unternehmen diese ohne Erlaubnis weiterverwerten.

Diskurs dringend nötig – auch in Deutschland

Wäre ein System wie das von Clearview in Deutschland überhaupt möglich? Alexander Roßnagel hat daran seine Zweifel. Er ist Professor für Öffentliches Recht an der Universität Kassel und Sprecher des Forums Privatheit. "Keiner der Betroffenen hat Clearview eine Einwilligungserklärung gegeben", sagt er. Die Sammlung der Daten sei daher nach der Datenschutz-Grundverordnung (DSGVO) unzulässig, genauso wie das Geschäftsmodell von Clearview. Allerdings heiße das nicht, dass dies immer so bleiben werde. Die öffentliche Meinung dazu könne sich ändern: Je mehr Erfolge es mit Systemen zur Gesichtserkennung in anderen Ländern gebe, desto stärker steige womöglich auch hierzulande der Druck – sowohl im öffentlichen Raum wie an U-Bahn-Stationen als auch in privaten Räumen wie Stadien, so Roßnagel.

Auch Technik, deren Einsatz hierzulande gar nicht legal wäre, kann den öffentlichen Diskurs beeinflussen. Und sie wirft Fragen an die Gesellschaft auf: Wollen wir wirklich riskieren, uns in der Öffentlichkeit nicht mehr anonym bewegen zu können? Wollen wir, dass jede Person als potenzielle Straftäterin oder Straftäter behandelt wird? Wollen wir Unternehmen gestatten, Daten zu speichern, für deren Verwendung sie nie eine Erlaubnis eingeholt haben? Der US-amerikanische Fall zeigt, wie wichtig diese Fragen sind. Und wie wichtig es ist, sich mit ihnen zu beschäftigen.

Technikrechtler Alexander Roßnagel selbst wünscht sich klare Regeln. "Automatisierte Gesichtserkennung sollte in Europa verboten werden", sagt er. Sollte es wirklich Ausnahmen geben, müsse die Verwendung klar begrenzt sein. Die EU-Kommission erwägt durchaus ein Verbot von Gesichtserkennung für die kommenden fünf Jahre, so berichtete erst vor wenigen Tagen Politico. Natürlich wird das Unternehmen wie Clearview nicht davon abhalten, es nicht trotzdem zu versuchen. Aber zumindest macht man es ihnen schwerer.