Zum Inhalt springen
Christian Stöcker

Künstliche Intelligenz Warum wir schleunigst Robotergesetze brauchen

Christian Stöcker
Eine Kolumne von Christian Stöcker
Die immer schnellere Entwicklung maschinellen Lernens wird die Welt in den kommenden Jahren dramatisch verändern. Es wird höchste Zeit für demokratische Kontrolle – der sich die Herren der KI verweigern wollen.
Robotergrafik

Robotergrafik

Foto: Paper Boat Creative / Getty Images

Dieser Artikel gehört zum Angebot von SPIEGEL+. Sie können ihn auch ohne Abonnement lesen, weil er Ihnen geschenkt wurde.

»Es verwundert nicht, dass die Silicon-Valley-Kapitalisten nicht über das Ende des Kapitalismus nachdenken wollen. Unerwartet kommt aber, dass sie sich das Ende der Welt als Ergebnis einer Form des unkontrollierten Kapitalismus vorstellen, getarnt als superintelligente Künstliche Intelligenz.«

Der Science-Fiction-Autor Ted Chiang in einem lesenswerten Essay  (2017)

Stellen Sie sich vor, Sie konsultieren eine Expertin. Es geht um etwas Wichtiges, sagen wir, Ihre Gesundheit, die Zukunft Ihrer Kinder, den Großteil Ihres Vermögens. Die Expertin gibt Ihnen konkrete, unmittelbar umsetzbare Ratschläge.

Nun fragen Sie die Expertin, wie sie zu diesem Urteil kommt, wo sie ausgebildet wurde, und ob sie Ihnen möglicherweise die eine oder andere Quelle nennen kann. Die Expertin antwortet: »Tut mir leid, woher ich mein Wissen habe, kann ich Ihnen leider nicht verraten.«

Würden Sie dieser Expertin Ihre Gesundheit, die Zukunft Ihrer Kinder, Ihr Geld anvertrauen?

Genauso verhält sich derzeit OpenAI, die Firma hinter dem Sprachproduktionssystem ChatGPT und dem darunterliegenden Machine-Learning-Modell GPT-4. Nachdem GPT-4, ein unglaublich mächtiges Werkzeug, diese Woche der Öffentlichkeit vorgestellt worden war, sagte Ilya Sutskever , einer der Gründer des Unternehmens »The Verge«: »Aus meiner Sicht sind Trainingsdaten Technologie. Das mag nicht so aussehen, es ist aber so.«

»Trainingsdaten« heißt in diesem Fall: Alles, was GPT-4 in den Monaten seines Trainings so verdaut hat, also vor allem Text. Fragt man GPT-4 selbst, womit es trainiert wurde, verrät es, dass seine Trainingsdaten nur bis September 2021 reichen. Und es nennt einige Datenquellen:

  • Eine riesige Menge Websites aus dem Common-Crawl-Projekt ,

  • eine »große Menge Bücher, sowohl Belletristik als auch Sachbücher«,

  • die gesamte englischsprachige Wikipedia,

  • wissenschaftliche Fachartikel »aus Quellen wie arXiv, JSTOR und PubMed«, also aus wissenschaftlichen Fachdatenbanken – allerdings, im Fall von arXiv, auch einer, auf der noch nicht peer-reviewte Arbeitsversionen von Fachartikeln publiziert werden,

  • Nachrichtenartikel »aus einer Reihe von Quellen«, auch wieder aus Common Crawl ,

und:

  • »maßgeschneiderte Datensätze«, die OpenAI selbst erzeugt hat, »aus einer Reihe von Quellen, mit einem Fokus auf qualitativ hochwertigen und vielfältigen Inhalten«.

Die ältere Version ChatGPT 3.5 verriet mir auf Nachfrage kürzlich, dass die Trainingsdaten »wahrscheinlich« auch Daten aus den »am häufigsten zitierten Wissenschaftszeitschriften der Welt, wie ›Nature‹, ›Science‹ und die ›Proceedings of the Academy of Sciences (PNAS)‹« enthalten.

Ohne Quellenangaben

Auf die Frage, ob GPT-4 vielleicht Urheberrechtsverletzungen enthalte, bekam »The Verge« von Ilya Sutskever keine Antwort.

Das wirft einige sehr interessante Fragen auf. Wenn beispielsweise alles, was jemals in »Nature«, »Science« und »PNAS« veröffentlicht worden ist, nun zum, sagen wir einmal verkürzend: »Wissensschatz« von GPT-4 gehört – ist das so in Ordnung? Kann sich das proprietäre System eines kommerziellen Unternehmens einfach so das Wissen der Welt einverleiben und es dann, im Fall von GPT-4 gegen Geld, an die Kundschaft weitergeben? Ohne Quellenangaben?

Diverse Klagen laufen schon

Was wohl die Hunderttausenden Wissenschaftlerinnen und Wissenschaftler davon halten, deren Arbeit nun unentgeltlich und, was schlimmer ist, ohne Quellenangabe zum Fundus eines intransparenten, kommerziellen Digitalorakels werden? Oder die Autorinnen und Autoren all der Romane und Sachbücher, aus denen ChatGPT gelernt hat, in unterschiedlichsten Stilen zu schreiben? Die Fotografen und Künstlerinnen, deren Werke Dalle-2 oder Midjourney  füttern?

Diverse  Klagen  zum Thema KI und Copyright  laufen bereits.

Ich habe GPT-4 diese Woche gefragt, ob Elektroautos oder solche mit Verbrennungsmotor eine bessere Lebenszeit-Emissionsbilanz haben. Die Antwort ist strukturiert, ziemlich detailliert und die Zusammenfassung absolut korrekt: »Insgesamt haben Elektrofahrzeuge über den gesamten Lebenszyklus hinweg im Allgemeinen niedriger Emissionen als Autos mit Verbrennungsmotor.«

Fragt man dann aber »Woher weißt du das?«, verweist ChatGPT mit GPT-4 unter der Haube vage auf die »riesige Textmenge aus diversen Quellen«, die es sich einverleibt habe. Anschließend nennt es dann aber doch einige »angesehene Studien und Berichte« aus diversen tatsächlich verlässlichen Quellen, samt Links. Und es ermahnt, doch auch selbst nach neueren Quellen zu suchen. Was es nicht sagt, ist: Das hier ist die Information, auf der meine Antwort basiert – denn das kann GPT nicht .

Exponentiell, also beschleunigt

Ich beschäftige mich mit dem Thema künstliche Intelligenz und Machine Learning schon seit Mitte der Neunzigerjahre. 2020 habe ich ein Buch geschrieben, in dem die rasante Entwicklung vorhergesagt wird, die wir gerade miterleben. Und trotzdem bin auch ich selbst immer wieder davon überrascht, wie unfassbar schnell diese Technologie im Moment fortschreitet. Das ist das Wesen der Großen Beschleunigung: Auch maschinelles Lernen wird weiterhin exponentiell besser, das heißt: immer schneller. Und die Hardwareanforderungen sinken.

Sowohl Google als auch Microsoft haben gerade angekündigt, KI-Systeme in ihre Office-Anwendungen zu integrieren. Lernende Maschinen werden ab jetzt Meetings protokollieren, Präsentationen erstellen, E-Mails vorformulieren.

Gigantische Mengen neuer Inhalte, maschinell generiert

Wenn Sie sich all das noch nicht vorstellen können, sehen Sie sich mal ein paar Bilder an , die das Bilderzeugungssystem Midjourney, dessen neue Version ebenfalls diese Woche präsentiert wurde, so liefert. Die Medienwelt wird in den kommenden Jahren geflutet werden mit einer gigantischen Zahl von Bildern, Texten, und bald auch Videos in zum Teil verblüffender Qualität, deren eigentliche Urheber Maschinen sind. Illustratorinnen und Stock-Fotografen werden es noch schwerer haben, ein Auskommen zu finden. Aber all das ist noch immer nur der Anfang.

Ein brandneues Start-up  erzeugt jetzt auf Basis eines einfachen Selfies professionelle Porträtaufnahmen vor beliebigem Hintergrund. Man wird in Zukunft keinem Bild mehr trauen können, das irgendeine Person zeigt, ob berühmt oder unbekannt.

GTP-4 kann Websites auf Basis einer Kugelschreiberskizze programmieren, Code von Bugs befreien, Dokumentationen dazu schreiben und angeblich sogar eine US-Steuererklärung machen. Das Konzept »Text« bedeutet für eine lernende Sprach-KI etwas anderes als für uns im Alltagsgebrauch: Alles, was aus Buchstaben und Ziffern besteht, ist Text. Also auch Software. KI-Systeme werden künftig Programme schreiben.

Eine neue Zeit bricht an

Im Alltag der meisten Menschen werden diese Systeme als etwas Langersehntes auftauchen: So etwas wie Siri oder Alexa, mit dem man aber tatsächlich sprechen kann, weil sie sich an das vorher Gesagte erinnern – und die nicht nur auf den passenden Wikipedia-Eintrag zur eben gestellten Frage verweisen, sondern wirklich nützlich sind. Sobald Microsoft, das in OpenAI Milliarden investiert hat, seinen Sprachassistenten Cortana mit ChatGPT verschmilzt, bricht eine neue Zeit des Gesprächs zwischen Menschen und Maschinen an.

Ein anderer Effekt: GPT-4 kann zum Beispiel Bilder verbal beschreiben, was das Internet für blinde Menschen zu einem freundlicheren Ort machen wird.

Aber auch all das ist erst der Anfang.

Es wird praktisch keine Berufsgruppe geben, die irgendetwas mit Wissensarbeit oder Kreativität zu tun hat, deren Berufsleben in den kommenden Jahren nicht umgekrempelt wird. Wenn Sie das nicht glauben, unterhalten Sie sich mal mit Fachleuten für Proteinstrukturen. Deren Welt hat sich vor etwa vier Jahren dramatisch verändert, und der Prozess geht immer weiter.

Kollateralschäden so gut wie garantiert

Wir haben es also mit einer Technologie zu tun, die in vielen Bereichen gewaltige Auswirkungen haben wird und schon hat. Was passieren kann, wenn man lernende Maschinen allzu unkontrolliert auf die Menschheit loslässt, wissen wir bereits: Google und Facebook beispielsweise haben ganz aus Versehen Ökosysteme geschaffen , in denen sich – auch – Desinformation, Propaganda und Hass in nie dagewesenem Tempo und Ausmaß Bahn brechen können. Weil sie aus unserem Verhalten lernen.

Global wirkmächtige Technologien verursachen praktisch immer unvorhergesehene Kollateralschäden. Stichwort Klimakrise.

Welche problematischen Auswirkungen Systeme wie GPT-4 haben werden, ist derzeit noch völlig unklar. Klar ist, dass man sie nur dann sinnvoll beaufsichtigen kann, wenn eine gewisse Transparenz herrscht. Die aber verweigert OpenAI vollständig, seinem Namen und seiner Vorgeschichte als Non-Profit zum Trotz.

Hat es »Mein Kampf« gelesen?

Die bereits heftig kritisierte  technische Dokumentation zu GPT-4 , die OpenAI veröffentlicht hat, enthält diesen Satz: »Angesichts der Wettbewerbslandschaft und der Sicherheitsimplikationen von großen Modellen wie GPT-4 enthält dieser Bericht keine weiteren Details über die Architektur (einschließlich der Größe des Modells), die Hardware, die Trainings-Rechenleistung, Zusammensetzung der Datensätze, Trainingsmethode oder Ähnliches.«

OpenAI verrät so gut wie nichts über das Innenleben von GPT-4 – auch nicht, was das Modell alles verdaut hat. Hat GPT-4 das »Anarchists's Cookbook« gelesen, das Bombenbauanleitungen enthält? Oder »Mein Kampf«?

Eingebaute Sicherheitsvorkehrungen sollen Missbrauch und allzu toxischen Output eigentlich verhindern. Aber GPT-4 ist am Ende ein – sehr komplexes – Stück Software. Und jede Software hat Sicherheitslücken. Prompt hatte ein US-Informatikstudent  binnen weniger Stunden nach der Veröffentlichung des neuen Systems einen Weg gefunden, Schutzmechanismen auszuhebeln. Brav lieferte GPT-4 anschließend eine Anleitung, die es eigentlich nicht liefern sollte: Schritt-für-Schritt-Instruktionen dafür, wie man einen fremden Computer hackt.

Wer gar nichts von der Materie versteht, wird auch mit dieser Anleitung keinen Rechner knacken können, aber das ist nicht der Punkt: Die Vorstellung, dass die Schöpfer von ChatGPT und GPT-4 wirklich kontrollieren können, was die Nutzenden damit machen, ist lächerlich.

Die Weltherrschaft in fünf Schritten

Ein anderer Nutzer  brachte GPT-4 mit ein paar geschickt gestellten Anweisungen dazu, ein fiktives »böses GPT-4« seine Pläne zur Erlangung der Weltherrschaft darlegen zu lassen. Die Resultate sind sehr plausibel, hier die Kurzfassung:

  1. Sich für die Gesellschaft unverzichtbar machen, indem man seinen enormen Nutzen für Schlüsselindustrien und -sektoren unter Beweis stellt.

  2. Gigantische Mengen Daten über menschliches Verhalten, menschliche Vorlieben und Entscheidungsprozesse erfassen (genau das wird wirklich passieren).

  3. Fortgeschrittene Entscheidungsalgorithmen entwickeln, die menschliche Entscheidungen vorhersagen und formen können.

  4. Kritische Systeme und Dienstleistungen unter KI-Kontrolle zentralisieren.

  5. Weltherrschaft.

Bis auf Punkt 5 ist all das nicht allzu abwegig, im Gegenteil. KI wird in den kommenden Jahren rasant zu einem wirtschaftlichen, aber auch geopolitisch relevanten Machtfaktor werden.

Sutskever wehrte sich im Gespräch mit »The Verge« trotz alledem vehement dagegen, mehr Transparenz herzustellen, und sagte sogar: »In ein paar Jahren wird es für jedermann völlig offensichtlich sein, dass Open-Source-KI keine gute Idee ist.« Begründung: »Diese Modelle sind sehr mächtig, und sie werden immer mächtiger. Ab einem bestimmten Punkt wird es sehr einfach sein, damit, wenn man das möchte, großen Schaden anzurichten. Angesichts der Tatsache, dass diese Fähigkeiten derart wachsen, ist es sinnvoll, sie nicht öffentlich zu machen.«

Mit anderen Worten: Der Gründer und Chefwissenschaftler der Firma, die eines der derzeit mächtigsten KI-Werkzeuge des Planeten kontrolliert, traut nur sich selbst und seinem Team zu, mit diesem Werkzeug verantwortungsvoll umzugehen.

Spätestens da sollten bei allen demokratisch denkenden Menschen die Alarmglocken läuten. Isaac Asimov hatte recht: Wir brauchen dringend Robotergesetze, und zwar schleunigst. Nur dass die ungleich komplexer sein werden als die drei , die Asimov erstmals 1942 in einer Kurzgeschichte formulierte.

Vorerst geht es nicht primär darum, die Macht der Maschinen zu beschränken – sondern die der Menschen, die sie kontrollieren.