Gastkommentar

Die Bevormundung der Menschen durch Maschinen muss verhindert werden

Die Algorithmen wissen nicht, was sie tun. Und der Mensch weiss es oft auch nicht. Deshalb braucht es Notvorrichtungen. Andernfalls droht eine Bevormundung der Menschen durch totalitäre Systeme.

Guerino Mazzola, Georg Rainer Hofmann
Drucken
Im Film «Modern Times» von 1936 gerät Charlie Chaplin ins Räderwerk der modernen Industriegesellschaft. Heutige Maschinen steuern die Menschen im Verborgenen. (Bild: Imago)

Im Film «Modern Times» von 1936 gerät Charlie Chaplin ins Räderwerk der modernen Industriegesellschaft. Heutige Maschinen steuern die Menschen im Verborgenen. (Bild: Imago)

Wir leben in einer sozialen Megamaschine. Die Menschen unterwerfen sich in arbeitsteiligen Gesellschaften einem Regelwerk, um ein höheres Ziel zu erreichen. Solche Megamaschinen existieren bereits seit vielen Jahrhunderten. Nur sie waren in der Lage, die Pyramiden der Antike oder die Kathedralen des Mittelalters zu erbauen. Voraussetzung dafür war ein Algorithmus, der (totalitär) über die Fähigkeiten des Individuums verfügte.

Der Beitrag einzelner Personen zu den Grossprojekten war marginal – sie waren der algorithmischen Macht völlig unterworfen. Innerhalb der normativ wirkenden Megamaschine ist das Individuum austauschbar. Wenn es Wenn-dann-Anweisungen nicht Folge leistet, hat das Sanktionen zur Folge – typischerweise den Ausschluss aus dem Projekt und dem sozialen Gefüge.

Die normativen Vorgaben und Gesetze, die im Kern einer Programmierung der Megamaschine entsprechen, werden von Menschen befolgt. Letztgenannte sind sich der Bedeutung (Semiotik) ihrer Handlungen bewusst. Die heutige Informationsgesellschaft ersetzt diesen Mechanismus zunehmend durch technische quasiintelligente Systeme. Diesen fehlt das Bewusstsein für die Semiotik ihrer Handlungen: Sie wissen nicht, was sie tun.

Das ist aus unserer Sicht in einer anthropozentrischen Gesellschaft nicht hinnehmbar. Ein imperium computatrum, die Dominanz sinnloser oder unausgereifter Prozesse und Maschinen, muss verhindert werden. Es braucht Auswege aus der Bevormundung des Menschen durch totalitäre Systeme.

Filterblasen mit katastrophalen Folgen

In sozialen Netzwerken lässt sich eine Verrohung des Diskurses beobachten. Beispielhaft dafür sind Phänomene wie alternative Fakten, Hate-Speech oder Herabsetzungen. Was ist da ausser Kontrolle geraten? Die Frage lässt sich mit einem Blick in die Vergangenheit beantworten.

In den 1980er Jahren hatte sich Heaven’s Gate formiert. Die Mitglieder dieser Bewegung einte der kompromisslose Glaube an Ufos. 1996 wurde eine Aufnahme veröffentlicht, auf der neben dem Kometen Hale-Bopp ein leuchtendes Objekt zu erkennen war. Astronomen identifizierten es als Fixstern. Die Anhänger von Heaven’s Gate sahen darin hingegen ein Ufo. Sie bestärkten sich gegenseitig im Glauben, dass der Erde die Apokalypse bevorstehe. Und nur das angebliche Ufo versprach in ihren Augen Rettung.

Es ist eine Sache, wenn einzelne Personen an Ufos glauben. Etwas ganz anderes ist es, wenn sich Menschen mit exotischen Ansichten innerhalb isolierter Gruppen gegenseitig hochschaukeln. Verquere Semiotik kann dann desaströse Folgen haben: Im März 1997 wurden fast vierzig Leichen ehemaliger Mitglieder von Heaven’s Gate gefunden. Sie hatten sich simultan selbst getötet – im Glauben daran, dass ihre Seelen danach an Bord des rettenden Raumschiffes gelangen würden.

Dieses Bild des Kometen Hale-Bopp druckte die NZZ im März 1997 ab. (Bild: NZZ-Archiv)

Dieses Bild des Kometen Hale-Bopp druckte die NZZ im März 1997 ab. (Bild: NZZ-Archiv)

Mit den heutigen Informationssystemen finden die Anhänger exotischer Meinungen – mit objektiv völlig schräger Semiotik – einfacher zueinander. Das kann zu einer Umwertung aller Werte, zum Verlust an psychosozialer Orientierung führen. Droht wieder einmal der Untergang des Abendlandes? Ist das Ende des freien Menschen nahe, den die Aufklärung geformt hat? Die internetbasierte semiotische Verzerrung ist jedenfalls die deutlichste Krankheit, die wir unabhängig von der ideologischen Ausrichtung der Beteiligten ausmachen können. Unsere These lautet, dass es einen Zusammenhang zwischen dem Gebrauch von künstlicher Intelligenz (KI) und der Schaffung von totalitären Systemen sowie dem sozialen Phänomen der Barbarei gibt.

Vermenschlichung und animistisches Wunschdenken

Es ist wichtig, zunächst den Stand der Dinge punkto KI zu skizzieren, um den Hype der Industrie zu entzaubern. Die Geschichte des Begriffs KI beginnt mit der Idee von Expertensystemen. Sie sollten der Denkleistung des menschlichen Gehirns assistieren, etwa bei der Diagnose von Krankheiten. Diese Systeme folgten formalen Befehlsfolgen. Dieses Paradigma reichte offenkundig nicht aus, um elementare menschliche Fähigkeiten zu erfassen. Die später aufgekommenen neuronalen Netze versuchen das Gehirn und das Nervensystem nachzubilden.

Maschinen, die auf diesem Ansatz beruhen, erzielen erstaunliche Rechen- und Datenkombinationsleistungen. Das darf nicht darüber hinwegtäuschen, dass der KI bis jetzt entscheidende Faktoren für Kreativität fehlen. KI kann zwar viele Kombinationen vorgegebener Begriffskonstellationen durchrechnen und auch «intelligent» in Datenbanken recherchieren. Aber Kreativität verlangt mehr: nämlich die Erweiterung eines Begriffssystems.

In der KI-Gemeinschaft spricht man zwar davon, dass ein Algorithmus eine Katze «erkenne». Doch was ist damit gemeint? Dass ein neuronales Netz, das mit (vielen!) Katzenbildern trainiert wurde, als Ergebnis korrekterweise «Katze» meldet, wenn ihm ein neues Katzenbild gezeigt wird. Dabei hat die KI gar nichts «verstanden», sondern Formen abgeglichen (Pattern Recognition). Dies als «erkennen» zu bezeichnen, ist eine unzulässige Vermenschlichung und grenzt an animistisches Wunschdenken.

Künstliche Intelligenz ist «bedeutungslos»

Wir können das Defizit allgemein benennen: Die KI hat keine Kompetenz in Semiotik. Es gibt keine Theorie in der Informatik, die Semiotik auch nur annähernd getreu modellieren könnte. Um es auf den Nenner zu bringen: KI ist «bedeutungslos». Erste formale Ansätze zu einer «Bedeutung der Bedeutung» sind zwar publiziert, aber erst als mathematische Theorie. Bis zur maschinellen Implementierung dürfte es jedoch noch lange dauern – wenn sie denn jemals gelingen sollte.

So weit also der Status quo der KI. Wir sind umgeben von einer Vielfalt dummer, schneller und billiger Handlungsautomaten. Der Technologie ist vollkommen egal, was ihre Erzeugnisse bedeuten. Philosophen würden wohl von «operationellem Nihilismus» sprechen. Das mag übertrieben sein. Aber wir müssen die Rolle der Menschen hinterfragen, die in dieses sinnlose Räderwerk eingebettet sind.

Ein solches System vernichtet Bedeutungen, da sie in der Mechanik nicht erkannt werden und auch überflüssig sind. Die Ethik der Bedeutungen verflüchtigt sich. Es verbleibt keine technologische Instanz, die eine solche einforderte. Wir müssen daher von einer kollektiven Demenz der sogenannten Informationsgesellschaft sprechen. Oder wie Einstein voraussah: «Ich fürchte mich vor dem Tag, an dem die Technologie unsere Menschlichkeit übertrifft. Auf der Welt wird es nur noch eine Generation aus Idioten geben.»

Schlecht erzogene Algorithmen

Der Fortschritt in der KI wird von der Öffentlichkeit als Konkurrenzkampf zwischen Mensch und Maschine betrachtet. Nach dem Schach-Triumph von Deep Blue gelang es auch anderen Computern, menschliche Gegner zu schlagen: Die Software AlphaGo siegte im hochkomplexen, aber unkomplizierten Brettspiel Go. Sie habe sich das Go-Spielen «ganz ohne menschliche Hilfe selbst beigebracht», wurde der Öffentlichkeit weisgemacht.

Das System AlphaGo hat sich gar nichts selbst beigebracht. Es hat, von Beispielen abstrahierend, gewisse Gesetzmässigkeiten quasi nachempfunden. Oder anders ausgedrückt: Das Schema gewonnener Go-Partien wurde destilliert und anschliessend erfolgreich simuliert. Die Systeme trainieren sich – nach von Menschen programmierten Regeln – ein Verhalten an. Nach abgeschlossener Trainingsphase ist ein Einblick in den erlernten Lösungsweg nicht mehr möglich. Man spricht daher von einem impliziten Algorithmus.

Das Verhalten solcher Algorithmen ist nicht immer vorhersehbar. Denn die Lernbeispiele, mit denen die Maschinen trainiert werden, hat man nicht immer unter Kontrolle. Berüchtigt wurde 2015 ein KI-Programm, das dunkelhäutige Menschen als Gorillas bezeichnete. Man könnte meinen, das Programm habe eine schlechte Erziehung genossen.

Der Hund als neuronales Netz

Mit der Abrichtung von Tieren, speziell von Hunden, begann der Mensch in prähistorischer Zeit, die ersten nichthumanen neuronalen Netze zu nutzen. Auch das kann als Programmierung gesehen werden. Die menschliche Zivilisation hat sich über viele tausend Jahre an den Nutzen und die Gefahren der Automatisierung und des Gebrauchs nichthumaner neuronaler Netze gewöhnt. Man hat die Modalitäten und die Risiken vollumfänglich adaptiert und akzeptiert.

Heute aber tritt eine neue Qualität von Gefahren auf. Zum einen haben heutige Systeme in Ort und Zeit massiv stärkere Auswirkungen als eine prähistorische Fallgrube, der wohl erste von Menschen konstruierte Automat. Die Automaten, die etwa die Arbeitsplatzcomputer mit Software-Updates versehen, haben eine globale Reichweite. Auch ihre Lebensdauer ist eminent; Teile von Betriebssystemen sollen zuweilen jahrzehntealt sein. Ähnliches gilt für die grossen Onlinehändler und die sozialen Netzwerke. Zum anderen ersetzen Automaten und neuronale Netze den direkten sozialen Kontakt. Dienstleistungen werden nicht mehr von Menschen für Menschen, sondern von Maschinen für Menschen erbracht. Das hat Auswirkungen auf das, was wir gesellschaftlichen Umgang nennen.

Da zahlreiche normative Vorgaben als «Wenn Fehlverhalten, dann Sanktion» formuliert sind, wäre eine Automatisierung von Teilen der Rechtspflege möglich. Die in einem Navigationssystem im Auto verfügbaren Daten – Standort, Fahrgeschwindigkeit, Geschwindigkeitsbegrenzung – ermöglichten etwa die Identifikation der Übertretung «Geschwindigkeitsüberschreitung». Die Sanktion könnte per Algorithmus gefunden werden. Das sofortige Abbuchen der Geldbusse vom Bankkonto des Fahrers oder des Halters wäre technisch möglich.

Defizite sind nicht im Voraus erkennbar

Wenn Entscheidungen von Computern nicht sinnhaft sind, dann müssen diese erkannt werden können. Es müssen Mechanismen zu deren Verhinderung und Korrektur verfügbar sein. Ein Problem besteht darin, dass nicht sinnhafte Maschinen und Prozesse nicht sofort als solche erkannt werden. Garantierte Prozesse, die mittels Blockchain oder Smart Contract zu einem bestimmten Termin auszuführende Transaktionen wie Bestellungen oder Überweisungen definieren, können zudem sinnvoll sein. Aber diese Transaktionen sind nicht mehr korrigierbar. Das kann problematisch sein, wenn sich die Paradigmen geändert haben – etwa wenn sich eine Überweisung als Geldwäscherei herausstellt.

Die Nicht-Sinnhaftigkeit oder Fehlerhaftigkeit einer Automatisierung lässt sich kaum vorhersagen. Es dürfte kaum einen Ansatz geben, mit dem sich Defizite sicher im Voraus erkennen lassen. Wir brauchen deshalb Mechanismen, um gefährliche Automaten zu bändigen. Durch Automaten verursachte Unglücke wie die Abstürze zweier Boeing 737 Max sind nicht akzeptabel.

Die Befürchtung, dass die maschinelle KI in absehbarer Zeit den Menschen überlegen sein wird, ist berechtigt. Nicht weil die KI über eine besondere Rechenleistung verfügte, die der Denkleistung des Menschen überlegen wäre. Sondern weil die KI als totalitäre Maschine Wirtschaft und Gesellschaft normativ beherrschen kann. Die Bevormundung des Menschen durch sinnlose oder unausgereifte Prozesse und Maschinen muss deshalb gebrochen werden.

Maschinen müssen sich bewähren

Der von Karl Popper begründete Kritische Rationalismus fragt nicht nach der Beweisbarkeit einer wissenschaftlichen Theorie. Er fragt danach, wie man Fehler finden kann und was dann zu tun ist. Wir halten das Prinzip der Falsifikation und Modifikation für übertragbar auf das Metier der Automatisierung: Entscheidend ist nicht, wie man eine sinnvolle Automatisierung (im Voraus) konstruiert. Wichtiger ist die Frage, wie schlechte oder fehlerhafte Automaten (im Nachhinein) erkannt und verbessert werden können. Denn es kann bestenfalls «bewährte Automaten» geben. Dass ein normativ tätiger Automat «korrekt» funktioniert, lässt sich ex ante nicht objektiv bewiesen.

Der Mensch braucht also das Prinzip der Falsifikation, um nicht sinnhafter Automatisierung entkommen zu können. Das bedingt wiederum zwei Optionen:

  • Off: Automaten müssen kontrolliert abgeschaltet werden können, damit ein Prozess manuell beendet werden kann.
  • Esc: Menschen müssen die manuelle Kontrolle übernehmen können, um den normativen Vorgaben eines Automaten zu entfliehen.

Eine Inbetriebnahme von Automaten sollte ohne eine systematische Planung der beiden Optionen «Off» und «Esc» nicht erlaubt sein.

Wissenschaftlicher und technischer Fortschritt soll die Lebensqualität erhöhen. Nicht sinnhafte Automatisierung, die dem Menschen mit alternativlosen, nicht korrigierbaren Prozessen die Handlungsautonomie nimmt, ist eine Gefahr für die Gesellschaft. Insbesondere für eine Gesellschaft, der Bedeutung abhandengekommen ist.

Guerino Mazzola ist Mathematiker und Professor an der University of Minnesota.

Georg Rainer Hofmann ist Informatiker und Direktor des Information-Management-Instituts (IMI) an der Technischen Hochschule Aschaffenburg.

«NZZ PRO Global» ist die neue Informationsplattform für Executives und global Interessierte. Lernen Sie dieses Angebot für kurze Zeit kostenlos und völlig unverbindlich kennen und bestellen Sie unsere Reports zu den Fokusthemen Technologie, Asien, USA und geopolitische Globalisierungstrends. Jeweils werktags direkt in Ihr E-Mail-Postfach. Zur Anmeldung.