GI-Radar 195: Menschliches Vermessen

 

Sehr geehrte Leserinnen und Leser,

mit der Einführung von Gesichtserkennung am Berliner Bahnhof Südkreuz hat die Bundespolizei eine breite gesellschaftliche Debatte ausgelöst. Grund genug, dieses Thema auch im Fokus des Radars medial zu begleiten. Der Titel dieses GI-Radars erinnert an drei Aspekte biometrischer Systeme. Im eigentlichen Wortsinn geht es dabei um die Messung von Merkmalen des Menschen, eine Wissenschaft, die schon Leonardo da Vinci faszinierte („Vitruvianischer Mensch”). Die zweite Bedeutung erinnert an die Probleme der Technik: Messfehler treten zwangsläufig in jedem biometrischen System auf, entweder wegen Sensorproblemen, wechselndem Umgebungslicht oder nicht kooperationswilligen Subjekten – nicht zu vergessen die leidige Prävalenz. Drittens gibt es noch eine demütige Lesart: Es ist vermessen, zu glauben, dass man allein mit Technik soziale Probleme zufriedenstellend lösen kann.

Wie immer soll das GI-Radar zur Diskussion anregen. Daher ist es bewusst überspitzt formuliert. Bekanntlich gibt es außerhalb des hoheitlichen Bereichs durchaus sinnvolle Einsatzgebiete für biometrische Systeme.

Viel Spaß bei der Lektüre!

auf gi-radar.de weiterlesen

Aufspaltung von Bitcoin + Bullshit-Detector für wissenschaftliche Papers + Digitaler Kolonialismus + Youtuber interviewen Bundeskanzlerin + Gesichtserkennung im öffentlichen Raum + Neuer GI-Webauftritt + Informatik-Spektrum digital + GI-Junior-Fellows 2017 + Informatikolympiade in Teheran + Spieltheorie anschaulich erklärt

KURZMITTEILUNGEN

Aufspaltung von Bitcoin und Bitcoin Cash (Heise und Wired). Die Kryptowährung Bitcoin hat es über die Jahre geschafft, auch außerhalb der Nerd-Community immer mehr Aufmerksamkeit auf sich zu ziehen – zuletzt befeuert durch die aktuelle Welle von Erpressungstrojanern. Jetzt droht dem Digitalgeld eine Spaltung mit ungewisser Zukunft: Eine Währung für Geldanleger, eine für den Zahlungsverkehr. Noch ist nicht abzusehen, ob sich eine Variante durchsetzen wird.  weiterlesen bei Heise / Hintergrund bei Wired

Bullshit-Detector für wissenschaftliche Papers (Wired, engl., 9 min). Vor etwa zehn Jahren machte der Scientific Paper Generator von sich reden. Akademikerinnen und Akademiker protestieren damit immer wieder gegen kommerzielle Konferenzen und Journale, die mit Spam für sich Werbung machen, aber auf Peer Reviews verzichten. Inzwischen hat sich die Technik umgedreht. Mit maschineller Hilfe versucht die DARPA, wertvolles wissenschaftliches Material von nicht so wertvollem zu unterscheiden.  weiterlesen

Digitaler Kolonialismus unter der Lupe (Global Voices, engl.). Im Frühjahr führte eine Gruppe von Rechtsexpertinnen und -experten eine Fallstudie in sechs Ländern durch, die jetzt veröffentlicht wurde. Gegenstand der Untersuchung war Facebooks Programm „Free Basics“ – vom Konzern angekündigt zur Überbrückung des sog. Digital Divide. Entgegen dem Silicon-Valley-eigenen Technikoptimismus spricht die Studie eine ganz andere Sprache.  weiterlesen

Youtube-Stars interviewen Bundeskanzlerin (Heise). Fünf Wochen vor der Bundestagswahl befragen am 16. August vier Youtube-Stars Bundeskanzlerin Merkel. Das einstündige Interview soll live im Netz übertragen werden.  weiterlesen

THEMEN IM FOKUS

Unser Fokus-Thema ist der hoheitliche Einsatz von Biometrie zur Überwachung von Menschen. Das jüngste Beispiel in Deutschland ist der Start des Testbetriebs zur Gesichtserkennung am Berliner Bahnhof Südkreuz. Gerade seit bekannt ist, was Gesichter noch so alles verraten können (siehe das Fundstück im letzten GI-Radar), sollte man über Gesichtserkennung noch einmal gründlich nachdenken.

Überwachung in China. Sie erinnern sich vielleicht noch an die Berichte zum Citizen Score in China. Inzwischen floriert dort eine Startup-Szene (darunter Megvii in Beijing oder Intellifusion in Shenzhen), die nicht nur an Techniken für das vollautomatisierte Fahren sondern auch zur Gesichtserkennung und Überwachung arbeitet. David Bandurski beschreibt eine vermeintliche Erfolgsgeschichte (taz, 6 min): Die chinesische Polizei hat angeblich mit Hilfe von Überwachungsvideoaufnahmen und einem Deep-Learning-System eine Kindesentführung verhindert. Das System habe in Echtzeit die Identität der Entführerin festgestellt, sodass diese noch vor der eigenen Haustür festgenommen werden konnte. Der Autor sieht die Vorteile, kann sich aber eines unguten Gefühls nicht entziehen: „Das ist allerdings nur die Spitze des Eisbergs. China […] verrät damit einen gefährlichen Glauben an die befreiende Kraft der Technologie. Das geschieht zudem ohne jedwede öffentliche Diskussion darüber, wie die als Fortschritt empfundene Entwicklung – unter dem allgegenwärtigen Auge der staatlich kontrollierten Datenmaschinerie – zur Falle für die Bürger werden könnte.“

Nicht nur der Staat, auch die Mitbürgerinnen und Mitbürger können soziale Normen durchsetzen. In Jinan, China, gehen täglich über 6000 Menschen bei Rot über die Straße. Eine nahe liegende Überlegung lautet: Gäbe es einen Internetpranger, so würden sich die meisten Menschen wohl zwei Mal überlegen, eine Ordnungswidrigkeit zu begehen. Detlef Borchers äußert jedoch technisch begründete Zweifel an der Wirksamkeit eines solchen Prangers (heise). Von 300 „Rotgängern“, die in Shanghai erfasst wurden, konnten lediglich vier identifiziert werden. Er erinnert zudem an den kuriosen Einsatz von Gesichtserkennung gegen den Klopapierklau.

Gesichtserkennung am Bahnhof Südkreuz. Nun zu Berlin, wo dieselben technischen und sozialen Einwände natürlich ebenso gelten. Einzig die Rechtsprechung mag sich unterscheiden. Constanze Kurz verweist auf die klare Haltung von Landesdatenschutzbeauftragten, dem Deutschen Anwaltsverein und dem Bundesverfassungsgericht in Bezug auf die Überwachung des öffentlichen Raums (Netzpolitik). Selbst der jetzt stattfindende Testbetrieb ist bereits grundrechtlich fragwürdig: „Die gerade begonnene Pilotphase, die zunächst Gesichter, später auch auffälliges Verhalten erkennen soll, müsste wegen der Unvereinbarkeit mit den Grundrechten unverzüglich beendet werden.“

Und zu guter Letzt gibt es neben technischen, sozialen und rechtlichen auch noch methodisch-wissenschaftliche Einwände. Das Forum InformatikerInnen für Frieden und gesellschaftliche Verantwortung bezweifelt die Aussagekraft des Feldversuchs (FIfF). Benjamin Kees erinnert an den Biometrie-Test im Bahnhof Mainz und merkt an, dass aus damaligen Fehlern offensichtlich nichts gelernt wurde: „Auch ohne tieferes technisches Verständnis ist offensichtlich, dass ein Mensch, der vom Computer per Gesichtserkennung erkannt werden soll, kooperieren muss, indem er zumindest grob in Richtung Kamera schaut. […] Der Versuchsaufbau am Südkreuz ist somit völlig realitätsfern. Das gilt auch deshalb, weil die Testpopulation nicht die Bevölkerung repräsentiert. Das verzerrt die Ergebnisse zusätzlich.“

Klaus Kurpjuweit fasst indes die erhofften Chancen der Sicherheitsbehörden zusammen (Tagesspiegel): Es geht natürlich um die Identifikation von „Gefährdern“, aber auch um die Erkennung der „typischen Bewegungsabläufe von Taschendieben“. Die vom FIfF in Frage gestellte Kooperationsbereitschaft wird im Feldversuch durch einen 25-Euro-Gutschein eines großen Online-Händlers sichergestellt. Interessant ist zudem die Wortwahl gleich am Anfang des Artikels: Der biometrisch überwachte Bereich wird dort „Tabuzone“ genannt – dabei sollte man aber nicht vergessen, dass schon längst der gesamte Bahnhof videoüberwacht wird.

Schutz vor Überwachung. Bleibt den Pendlerinnen und Pendlern also nur noch der Selbstdatenschutz. Inzwischen gibt es modische Styling-Tipps zum Schutz vor biometrischer Erkennung. Die Make-Up- und Frisur-Vorschläge sehen allerdings noch recht avantgardistisch aus (cvdazzle.com).

Leider ist das Datenschutzkonzept am Berliner Bahnhof Südkreuz noch nicht bekannt. Immerhin läuft bereits eine „frag-den-staat“-Anfrage gem. Informationsfreiheitsgesetz. Wünschenswert wäre eine datenschutzfreundliche Realisierung. Entsprechende Ansätze werden in der Wissenschaft schon länger diskutiert. Als Einstieg empfiehlt sich ein Papier von Sadeghi et al., das an der Ruhr-Universität Bochum entstanden ist (eprint.iacr.org).

Die GI in der Presse. Das Thema Biometrie wird auch von GI-Mitgliedern kritisch gesehen. So warnt Andrea Knaut im Politischen Feuilleton des Deutschlandfunks, dass man mit Biometrie keine Terroristen fangen könne (Deutschlandfunk Kultur). Sie zeigt zudem auf einen blinden Fleck in der Debatte, der nicht erst seit Jeremy Benthams Panoptikum von äußerster Wichtigkeit ist: „Biometriesysteme verstärken nur Effekte autoritärer Systeme: Während Bürgerinnen oder Papierlose immer erkannt werden, egal als wer und egal ob zurecht, entzieht sich das kontrollierende System der Verantwortung“. Dieses Problem hat schon den römischen Dichter Juvenal beunruhigt: „Quis custodiet ipsos custodes“ – wer wacht über die Wächter?

GI-MELDUNGEN

Neuer Webauftritt für die GI. Nach einer gefühlten Ewigkeit präsentiert sich die GI ab Herbst im neuen Gewande. Dazu möchten wir gerne Ihre Meinung wissen. Werden Sie ab dem 16. August Beta-Tester des neuen Webauftritts.  weiterlesen

Informatik Spektrum digital. Das neue Informatik Spektrum zum Thema „Algorithmen und Meinungsbildung“ ist da. Im Mitgliederbereich können Sie es als Komplett-PDF herunterladen.  weiterlesen

Nadine Bergner, Stefan Günnemann und Tim Philipp Schäfers neue GI Junior-Fellows. Am 27. September 2017 zeichnet GI-Präsident Liggesmeyer drei neue GI Junior-Fellows aus.  weiterlesen

Internationale Informatikolympiade in Teheran. Eine Goldmedaille für das und ein Erlebnisblog des deutschen Teams: wir gratulieren!  weiterlesen

Kennen Sie den GI-Bewegungsmelder? Haben Sie kürzlich eine neue Aufgabe übernommen? Dann melden Sie sich bei uns!

FUNDSTÜCK

Spieltheorie anschaulich erklärt: Die Krux des Vertrauens. Viele Krisen sind darauf zurückzuführen, dass sich Menschen nicht (mehr) vertrauen oder das Vertrauen von anderen missbrauchen. Wie kommt es dazu? Unser Fundstück ist ein interaktives und attraktiv aufbereitetes Erklärstück, das diesen Fragen nachgeht. Ausgehend von spieltheoretischen Überlegungen (Gefangenendilemma) wird in aufeinander aufbauenden Simulationen gezeigt, wie sich verschiedene Strategien des Vertrauens bzw. ein Vertrauensbruch auswirken. Dem Autor Nicky Case gelingt damit das Kunststück, Spieltheorie „begreifbar“ zu machen und darüber hinaus die eingangs aufgeworfenen Fragen überzeugend zu beantworten.  Zur Webseite (engl., ca. 30 min für gründliches Durcharbeiten)

Welches Fundstück hat Sie zuletzt inspiriert? Senden Sie uns Ihre Vorschläge!

 

Dies war Ausgabe 195 des GI-Radars. Sie können natürlich darauf vertrauen, dass dies nicht die letzte Ausgabe des GI-Radars war – wir halten uns schließlich an die drei Empfehlungen von Nicky Case (siehe Fundstück). Gestaltet wurde diese Ausgabe von den Junior Fellows Dominik Herrmann, Melanie Stilz und Alexander von Gernler. Den Text zum Thema im Fokus hat der Sprecher der GI-Fachgruppe Informatik und Ethik, Stefan Ullrich, beigesteuert. Die GI-Mitteilungen hat GI-Geschäftsführerin Cornelia Winter zusammengetragen. Das nächste GI-Radar erscheint am 25. August 2017.

Im GI-Radar berichten wir alle zwei Wochen über ausgewählte Informatik-Themen. Wir sind sehr an Ihrer Meinung interessiert. Für Anregungen und Kritik haben wir ein offenes Ohr, entweder per E-Mail (redaktion@gi-radar.de) oder über das Feedback-Formular bei SurveyMonkey. Links und Texte können Sie uns auch über Twitter (@informatikradar) oder Facebook zukommen lassen.