Erklärt

Warum ist die automatische Gesichtserkennung so umstritten? Antworten auf die grundsätzlichsten Fragen

Sie erhöhen die Effizienz in der Polizeiarbeit, aber wecken die Bedenken aus der Datenschutzszene: Technologien für die Gesichtserkennung werfen viele Fragen auf. Antworten auf die neun naheliegendsten.

Gioia da Silva, Ruth Fulterer, Judith Kormann, Stefan Betschon
Drucken
Ein Bildschirm zeigt die Gesichtserkennungstechnologie auf der World-Artificial-Intelligence-Konferenz im August 2019 in Schanghai.

Ein Bildschirm zeigt die Gesichtserkennungstechnologie auf der World-Artificial-Intelligence-Konferenz im August 2019 in Schanghai.

Qilai Shen / Bloomberg

Wozu wird die automatische Gesichtserkennung verwendet?

Die beiden wichtigsten Anwendungsbereiche der Gesichtserkennung sind Authentifizierung und Identifizierung. Bei der automatischen Passkontrolle an Flughäfen oder beim Entsperren eines Smartphones geht es um eine Authentifizierung. Dabei werden zwei ähnliche Porträtbilder miteinander verglichen. Ähnlich funktioniert das Entsperren eines Smartphones mit einem Gesicht.

Bei der Identifizierung hingegen muss ein Bild mit Tausenden von Bildern verglichen werden, bis es mit einem Menschen in Verbindung gebracht werden kann. Dafür braucht es eine grosse Datenbank von Gesichtern. Für Verbrecher gibt es das schon lange. Das Unternehmen Clearview AI wurde bekannt, weil es eine solche Datenbank auch von unbescholtenen Bürgern anlegte – indem es ohne Erlaubnis Milliarden von Bildern von Facebook abzog.

Identifizierung ist technisch schwieriger als Authentifizierung, aber mittlerweile funktioniert sie selbst bei halb verdeckten Bildern schon so gut, dass sie die Arbeit der Polizei erleichtert – oder auch missbraucht werden kann.

Wie wird Gesichtserkennung heute in der Schweiz schon eingesetzt?

Mehrere Kantonspolizeien nutzen Software zur Gesichtserkennung. Von der Kapo Aargau ist bekannt, dass sie ein Programm namens «Better Tomorrow» von der israelischen Firma Anyvision nutzt. Damit kann sie das Verfahren vereinfachen, mit dem sie beispielsweise Ladendiebe, die mit einer herkömmlichen Überwachungskamera gefilmt wurden, identifiziert. Dazu gleicht das Programm das Bild mit einer Datenbank der Aargauer Polizei ab.

Weiter hat die Kantonspolizei St. Gallen seit 2021 die Software der schwedischen Firma Griffeye in Betrieb. Auch dieses Programm gleicht Bilder von Überwachungskameras mit einer Polizeidatenbank ab. War der Täter bereits früher straffällig, kann er mit der Software möglicherweise identifiziert werden.

Weiter können auch Bilder von zusätzlichen Überwachungskameras beigezogen und mit der Aufnahme des Täters abgeglichen werden, zum Beispiel um eine allfällige Fluchtroute des Täters zu rekonstruieren. Solche Abklärungen wurden auch früher gemacht, doch sie mussten manuell vorgenommen werden. Für die Polizeiarbeit bedeute die Gesichtserkennung einen immensen Fortschritt und einen enormen Effizienzgewinn, erklärte Stefan Helfenberger, Leiter Ermittlungsunterstützung bei der Kantonspolizei St. Gallen Anfang Juli 2022 gegenüber der NZZ.

Wie gut sind heutige Programme?

Es gibt bereits Dutzende Programme, die Menschen zuverlässig erkennen. Auf dem Machine-Learning-Blog des Facebook-Konzerns Meta zeigt eine Zusammenstellung zwanzig Programme, die in über 99 Prozent aller Fälle funktionieren. Darunter befindet sich auch die Google-Software Facenet mit einer Genauigkeit von 99,63 Prozent. Der Facebook-Algorithmus Deepface hat laut dem Blog-Eintrag eine Genauigkeit von 98,37 Prozent.

Das bedeutet allerdings nicht, dass mit der Software beliebige Menschen in der Öffentlichkeit fotografiert und identifiziert werden könnten. Schliesslich fehlt den meisten Programmen eine Datenbank für die Zuordnung der Gesichter zu den Namen.

Um die Stärke der Programme trotzdem analysieren und miteinander vergleichen zu können, haben Forschende an der Universität Massachusetts eine Datenbank namens «Labeled Faces in the Wild» publiziert. Darin sind 13 000 Bilder von über 5700 Menschen gespeichert, aufgeteilt in zwei Datensets: eines für das Training der Algorithmen, eines für ihren Qualitätstest.

Spricht man also von einer Genauigkeit von über 99 Prozent wie bei Facenet von Google, meint man damit, dass das Programm in dem standardmässig festgelegten Datensatz mehr als 99 von 100 Personen erkennt. Dies heisst aber nicht automatisch, dass auch Passantinnen und Passanten in der Öffentlichkeit erkannt würden.

Existieren Datenbanken mit Fotos von uns allen?

Anfang 2020 machte die amerikanische Firma Clearview AI Schlagzeilen: Sie hatte eine riesige Fotodatenbank aufgebaut, indem sie von öffentlich zugänglichen Quellen Namen und Profilfotos gespeichert hatte – von Millionen von Personen und ohne deren Zustimmung. Seither muss davon ausgegangen werden, dass manche Personen, die auf sozialen Netzwerken wie Facebook, aber auch auf Firmenwebsites ihren echten Namen und ein reales Profilbild verwendeten, nun von der Software erkannt werden.

In der Fotodatenbank von Clearview AI sollen inzwischen mehr als 20 Milliarden Fotos gespeichert sein. Dies ist, laut Angaben des Unternehmens, die grösste Gesichtsdatenbank der Welt. Manche amerikanische Polizeibehörden nutzen die Dienstleistungen der Firma zur Bekämpfung von Straftaten. Dass deutsche oder Schweizer Behörden mit dem Startup zusammenarbeiten würden, ist nicht bekannt. Clearview AI befindet sich in mehreren laufenden Gerichtsprozessen, in denen Kläger sich gegen die Verwendung der Bilder wehren.

Im Windschatten von Clearview AI sind aber auch andere Programme gewachsen, die Fotos von Personen mit dem Internet abgleichen. Der Webdienst PimEyes findet beispielsweise Fotos von beliebigen Personen, falls diese im Internet Bilder von sich hinterlassen haben. Häufig kann man daraus auch den Namen einer Person ableiten. Der Service lässt sich für 33 Franken pro Monat abonnieren.

Welche rechtlichen Bestimmungen schränken die polizeiliche Nutzung von Gesichtserkennung ein?

Biometrische Daten wie das Gesicht gelten in der Schweiz als besonders schützenswerte Personendaten. Es fehlen zwar konkrete Gesetze zur Regulierung von Technologien zur Gesichtserkennung. Dennoch glaubt der Bundesrat, die rechtlichen Grundlagen seien vorhanden, damit Gesichtsdaten für die Identifizierung von Personen in einer Ermittlung oder einem Strafverfahren eingesetzt werden dürften. Dies schreibt er in einer Antwort auf eine parlamentarische Anfrage im Herbst 2021.

Dennoch schränkt das Datenschutzgesetz die Nutzung von biometrischen Daten ein. Das bedeutet, dass Schweizer Polizeibehörden beispielsweise nicht einfach Datenbanken von Ämtern durchsuchen dürfen, die biometrische Reisepässe, Identitätskarten oder Führerscheine ausstellen. Staatliche Organe dürfen biometrische Daten nämlich nur dann bearbeiten, wenn dies in einem Gesetz oder in einer Verordnung vorgesehen ist. Weiter ist die Richtigkeit dieser Daten sicherzustellen: Es dürfen nur Verfahren eingesetzt werden, die eine sehr hohe Wahrscheinlichkeit der Identifikation oder Verifikation der betroffenen Person erlauben.

Ein «verdachtsunabhängiger Einsatz», also eine automatisierte und systematische Identifizierung von Personen in Echtzeit via Überwachungskameras, sei aus grundrechtlichen Überlegungen nicht zulässig, schreibt der Bundesrat.

Was dürfen Firmen mit biometrischen Daten tun?

Auch Firmen dürfen biometrische Daten nur zu dem Zweck bearbeiten, der bei der Erhebung oder der Beschaffung angegeben wurde. Wer Personendaten bearbeitet, hat ausserdem die Verhältnismässigkeit zu beachten: Das Bearbeiten der Personendaten muss für die Erfüllung der Aufgaben erforderlich sein. Die betroffene Person muss zudem selbst und freiwillig entscheiden können, ob und wem sie gespeicherte biometrische Daten weitergeben möchte.

Weiter fordert das Gesetz Transparenz: Die Betroffenen müssen über die Möglichkeit und die Zulässigkeit der Bearbeitung ihrer biometrischen Daten informiert werden. Dienste wie PimEyes operieren damit in rechtlichen Grauzonen.

Was sagt die Datenschutzszene?

Datenschützerinnen und Privatsphäreaktivisten wollen, dass die automatische Gesichtserkennung im öffentlichen Raum verboten wird. Sie argumentieren, dass es die demokratische Öffentlichkeit auf unverhältnismässige Art und Weise einschränke, wenn auf öffentlichen Plätzen, in Bahnhöfen, Stadien oder Einkaufszentren die Infrastruktur vorhanden sei, um Personen jederzeit automatisiert zu identifizieren.

Die automatische Gesichtserkennung im öffentlichen Raum verletze das Recht auf Privatsphäre, weil es kaum möglich sei, eine Zustimmung zur Datennutzung einzuholen.

Ausserdem fürchten Kritiker, Gesichtserkennung könne bestimmte Personengruppen davon abhalten, ihre Meinung zu äussern oder sich zu versammeln. Das blosse Wissen, dass man potenziell erkannt werden könnte, werde unser Verhalten beeinflussen. Es könne uns davon abschrecken, Orte oder Anlässe aufzusuchen, die Hinweise auf unsere politische Gesinnung, sexuelle Orientierung oder Religion geben könnten. Weiter könnten Whistleblower davor zurückschrecken, Journalistinnen zu treffen, und Personen ohne gültige Papiere könnten aus Angst, erwischt zu werden, den öffentlichen Raum gänzlich meiden.

Warum setzen sich amerikanische Tech-Konzerne für strengere Gesetze bei der Gesichtserkennung ein?

Indem sich Unternehmen wie IBM, Amazon, Google, Microsoft und Meta freiwillig beim Geschäft mit Technologien zur Gesichtserkennung einschränken, verzichten sie auf Umsatz – oder mindestens auf praktische Angebote für ihre Nutzerinnen und Nutzer.

IBM, Amazon und Microsoft beschlossen 2020, die Technik so lange keiner Polizeidienststelle in den USA zur Verfügung zu stellen, bis ein nationales Gesetz ihren Einsatz reguliert. Zuvor hatte die Tötung von George Floyd die Debatte über Diskriminierung von Menschen wegen ihrer Hautfarbe in der Gesichtserkennung wieder angefacht.

Tatsächlich identifizieren die meisten Algorithmen Personen mit weisser Hautfarbe zuverlässiger als Schwarze. Macht die Gesichtserkennung in der Polizeiarbeit Fehler, werden unter Umständen unschuldige Personen festgehalten oder bestraft. Trifft dies mehr Schwarze als Weisse, verschlimmert die Technik bestehende Diskriminierungen.

Die Unternehmen kamen durch mediale Berichterstattung auf der einen, durch interne Beschwerden auf der anderen Seite unter Druck, die Gesichtserkennung freiwillig einzuschränken. Seither lobbyieren sie für ein nationales Regelwerk, damit sie die Technologie in geordneten Bahnen weiterentwickeln können.

Wie wurde die automatische Gesichtserkennung entwickelt?

Die ersten Forschenden, die sich in den 1960er Jahren in den USA mit automatischer Gesichtserkennung beschäftigt haben, orientierten sich an den gängigen Gesichtsmerkmalen. Unter der Aufsicht des KI-Pioniers Woody Bledsoe versuchten Wissenschafter, Abstände zwischen wichtigen Merkmalen eines Gesichts zu messen, zum Beispiel zwischen Lippe und Kinn und zwischen Augenbrauen und Nasenspitze. Die so erfassten Werte speicherten sie in einer Datenbank.

Doch dieser Ansatz führte nicht zum Erfolg. Bledsoe stellte fest, dass kleine Veränderungen der Kopfhaltung oder des Aufnahmeabstands die Erkennung stark erschwerten. Auch Mimik, Beleuchtung oder Alterungsprozesse verunmöglichten die frühe automatische Gesichtserkennung oder machten sie dermassen fehleranfällig, dass sie in der Praxis nicht eingesetzt werden konnte.

Damit blieb die Gesichtserkennung bis in die 1990er Jahre ein technisch unlösbares Problem. Dann entwickelten die Forscher Matthew Turk und Alex Pentland am Massachusetts Institute of Technology (MIT) allerdings einen neuen Ansatz: Anstatt die Abstände von Gesichtsmerkmalen zu messen, analysierten sie einzelne Pixel. Möglich machte das eine neue Technik: das maschinelle Lernen. Dabei erkannten Computer erstmals selbst Muster in Gesichtern und formten eine Art Modellgesicht für jede Person, mit deren Fotos sie trainiert wurden.

In den Jahren 2014 und 2015 lancierten Grossfirmen wie Facebook mit seinem Deepface-Programm und Google mit seinem FaceNet ihre eigene Gesichtserkennungssoftware. Damals waren die Algorithmen allerdings noch ungenau. Die besten hatten eine Fehlerquote von 4 Prozent. Mit den Investitionen aus dem Privatsektor konnten die Programme aber entscheidend verbessert werden. Seit 2017 funktioniert das Vergleichen zweier Gesichter zur Authentifikation an Flughäfen und für Smartphones.

Seit ungefähr zwei Jahren ist die Technologie auch in der Identifikation unbekannter Personen zuverlässig genug, damit sie von Strafverfolgungsbehörden zielführend eingesetzt werden kann.

Mehr von Stefan Betschon (SB)