Diskriminierende Algorithmen:Frankenstein 4.0

Frankenstein USA 1931 Regie James Whale Darsteller Boris Karloff UnitedArchives00867215

Frankenstein in der klassischen Verfilmung von James Whale aus dem Jahr 1931

(Foto: imago/United Archives)
  • In der digitalen Welt können wir oft nur noch das Handeln der Maschinen beobachten, aber nicht mehr verstehen, warum sie sich verhalten, wie sie sich verhalten und wer dafür verantwortlich ist.
  • Ein Autor des Guardian nennt dieses Phnänomen Frankenstein-Algorithmen.
  • Die IT-Juristin Amit Elazari möchte deshalb finanzielle Anreize für Experten schaffen, um die in den Algorithmen verborgenen Ungerechtigkeiten öffentlich zu machen.

Von Michael Moorstedt

Seit einiger Zeit kursiert im Internet ein Video, das traurig und absurd ist und einen mal wieder so richtig in Rage geraten lässt. Perfekte Voraussetzungen also, um viral zu gehen. Zu sehen ist ein Mann, der seine Hand unter einen automatisierten Seifenspender hält. Sofort landet ein Klacks auf der Handfläche. Dann versucht es sein dunkelhäutiger Kollege. Das Gerät reagiert nicht. Das Video ist ein sehr offensichtliches Beispiel für einen sogenannten Algorithmic Bias, also algorithmisch verstärkte Vorurteile und Ungerechtigkeiten. Es gibt noch viele andere Beispiele für dieses Phänomen. Übersetzungssoftware etwa, die akademischen Berufen automatisch einen männlichen Artikel verpasst und niederer Arbeit einen weiblichen.

Beiden gemeinsam ist, dass man relativ leicht herausfinden kann, was die Fehlfunktion ausgelöst hat. Im ersten Fall hat irgendjemand dem Hygiene-Roboter bei seiner Entwicklung eingetrichtert, dass seine Kamera einen gewissen Kontrast erkennen muss, bevor er die Lotion freigibt. An Menschen mit dunkler Hautfarbe wurde dabei offenbar nicht gedacht. Im zweiten Fall orientiert sich die Software bei der Übersetzung an Fallbeispielen aus der echten Welt und repliziert damit die Ungerechtigkeiten, die dort seit jeher herrschen.

Im Guardian war vergangene Woche ein interessanter Text darüber zu lesen, dass in der Tech-Welt, die ja sowieso immer weiter in die echte Welt ausgreift, mittlerweile "ein Universum existiert, das niemand mehr vollständig versteht". Durch neue Technologien wie das maschinelle Lernen entstehen selbständig agierende, von niemandem überprüfbare Handlungsvorschriften, die so gut wie jeden Gegenstand und jede Maschine und jedes Programm bevölkern, die uns im Alltag begegnen. Wenn Milliarden dieser autonomen Agenten mit oft unterschiedlichen Interessen mit- und gegeneinander wirken, ist es nur eine Frage der Zeit, bis das System beginnt zu knirschen.

Manche Beispiele sind bekannt. Automatisierte Einkaufssoftware etwa, die ohne ersichtlichen Grund den Preis für obskure Amazon-Produkte in absurde Höhen treibt. Oder die immer wieder mal spontan stattfindenden sogenannten Flash Crashs an der Börse. Sie werden von High-Frequency-Trading-Algorithmen ausgelöst. Der Physiker Neil Johnson hat dieses Phänomen als einer der Ersten beschrieben. Und zwar ausgerechnet in der Fachzeitschrift Nature. Im Grunde habe sich ein komplett eigenes Ökosystem entwickelt, in dem die Algorithmen in der Zwischenzeit die Fähigkeit haben, Teile ihres eigenen Codes neu zu schreiben.

Kann man Maschinen ethisches Handeln beibringen?

Andere Fälle sind neuer und nicht weniger akut. Etwa die Bilderkennungsalgorithmen von selbstfahrenden Autos, die Passanten willkürlich als Autos oder Gegenstände identifizieren. Frankenstein-Algorithmen nennt der Guardian-Autor dieses Phänomen. In dieser neuen Welt also können wir nur noch das Handeln der Maschinen beobachten, aber nicht mehr verstehen, warum sie sich verhalten, wie sie sich verhalten. Und vor allem wissen wir nicht, wer für ihr Handeln verantwortlich ist. Noch die Programmierer? Oder doch bereits der Code selbst?

Die IT-Juristin Amit Elazari schlug deshalb vor Kurzem auf einer Sicherheitskonferenz vor, finanzielle Anreize für Experten zu schaffen, um die in den Algorithmen verborgenen Ungerechtigkeiten und Widersprüchlichkeiten zu überprüfen und öffentlich zu machen. Dafür müssten die Konzerne aber ihren Code offenlegen, was ohne Zwang von oben eher unwahrscheinlich ist. An der Universität von Massachusetts versucht der Philosophie-Professor Nicholas Evans derweil, ethisch-moralische Theorien in für Maschinen verständliche Sprache zu übersetzen. Gibt es tatsächlich einen allgemeingültigen Code für richtig und falsch?

Auch Neil Johnson, der Finanzwelt-Ökologe, versucht sich an einer Lösung. Problematisch sei vor allem der Glaube, dass das Ziel eines jeden Algorithmus die Optimierung und Maximierung seines Outputs zu sein hat. Viel wichtiger sei die Frage, wie man ungewollten Output minimiere. Man brauche dafür, so Johnson, nicht weniger als "eine neue Wissenschaft"

Zur SZ-Startseite

Lesen Sie mehr zum Thema

Jetzt entdecken

Gutscheine: