Moratorium über Umgang mit KI: Pause mit Problemen

Hilft ein temporärer Entwicklungsstopp, KI in Bahnen zu lenken? Ex­per­t:in­nen finden, die Forderung gehe an den echten Gefahren vorbei.

Auf einem Smartphone ist eine virtuelle Person zu sehen

Reichen sechs Monate Entwicklungsstopp, um die Gefahren einer KI vorzubeugen? Foto: Nathan Frandino/ reuters

BERLIN taz | Nach dem offenen Brief, in dem zahlreiche Tech-Expert:innen ein Moratorium für die Entwicklung Künstlicher Intelligenz (KI) forderten, drängen nun auch die Vereinten Nationen die Gesetzgeber weltweit zu Maßnahmen. Die Organisation der Vereinten Nationen für Bildung, Wissenschaft und Kultur (Unesco) forderte, ihre Empfehlungen zum ethischen Umgang mit KI umzusetzen.

Die Unesco warnte etwa davor, dass KI-Systeme Diskriminierung verstärken könnten. Weitere Gefahren durch eine unregulierte Entwicklung seien Desinformation und die Verletzung von Persönlichkeits- und Menschenrechten. Alle Staaten weltweit sollten daher die Empfehlungen zum ethischen Umgang zügig in nationales Recht übersetzen.

Die Ex­per­t:in­nen aus der Tech-Branche hatten diese Woche in ihrem offenen Brief einen sechsmonatigen Entwicklungsstopp für fortgeschrittene KI-Systeme gefordert. „In den letzten Monaten haben sich die KI-Labors einen unkontrollierten Wettlauf um die Entwicklung und den Einsatz immer leistungsfähigerer digitaler Köpfe geliefert, die niemand – nicht mal ihre Erfinder – verstehen, vorhersagen oder zuverlässig kontrollieren kann“, heißt es in dem Schreiben.

Vorstoß für Moratorium ist umstritten

Eine sechsmonatige Pause solle genutzt werden, um einen regulatorischen Umgang mit der neuen Technologie zu finden und beispielsweise Aufsichtsbehörden, Prüfungs- und Zertifizierungssysteme aufzubauen. Stand Freitagnachmittag haben rund 1.800 Personen den Brief unterzeichnet.

Unterdessen melden sich auch kritische Stimmen zu dem offenen Brief zu Wort: „Er beschreibt eine Phantasiewelt, in der bisherige KI bis auf ein paar technische Updates problemfrei ist und sechs Monate Entwicklungsstopp genügen, um geeignete regulatorische Rahmenbedingungen für die angeblich unausweichliche Superintelligenz zu schaffen“, kritisierte Anna Jobin, KI-Forscherin und Vorsitzende der Eidgenössischen Medienkommission.

Ute Schmid, Leiterin der Arbeitsgruppe Kognitive Systeme von der Otto-Friedrich-Universität Bamberg, ist eine der Unterzeichnerinnen. Sie glaube zwar nicht, dass eine sechsmonatige Pause hilfreich sei. „Aber ich stimme mit den Verfassern des Briefs überein, dass es unabdingbar ist, auf die Risiken beim Einsatz großer Sprachmodelle und anderer aktueller KI-Technologien hinzuweisen und zu versuchen, in einen breiten demokratischen Diskurs zu treten, an dem sich die KI-Expertinnen und -Experten aus den Forschungsinstituten und den großen Tech-Unternehmen aktiv beteiligen.“

Am Problem vorbei

KI-Forscherin Jobin kritisiert, dass der offene Brief die Probleme aktueller Systeme verharmlose. „Seltsamerweise wird keine Einschränkung beim Einsatz gefordert, obwohl bei KI der Kontext der Anwendung mindestens genauso wichtig ist wie die Entstehung.“ Zwar würden die Un­ter­zeich­ne­r:in­nen des Briefs auch sinnvolle Maßnahmen wie Prüfverfahren oder Kennzeichnungen fordern – allerdings seien unter den Erstunterzeichnenden auch Akteure, die solche Schritte für die eigenen Unternehmen nie genommen hätten. Zu den Erstunterzeichnenden gehört unter anderem Milliardär Elon Musk.

Auch der Rechtswissenschaftler Matthias Kettemann vom Alexander von Humboldt Institut für Internet und Gesellschaft (HIIG) kritisiert: „Nicht alle, die unterschrieben haben, sind ganz unschuldig an einer unkritischen Nutzung von KI in ihren jeweiligen Unternehmen.“ Er spricht sich dafür aus, bestehende ethische Empfehlungen wie die der Unesco schnell umzusetzen. „Wir wissen nämlich schon, wie man mit KI gut umgeht. Bislang fehlt aber der politische Wille, hier klare Regeln aufzustellen, um Menschenrechte zu schützen, KI-basierte Diskriminierung zu beenden und globale Entwicklungsziele zu erreichen.“

„Ein Moratorium würde den Vorteil bringen, dass sich proaktiv Regulierungen beschließen ließen, bevor die Forschung weiter voranschreitet“, sagt Thilo Hagendorff, Forschungsgruppenleiter Interchange Forum for Reflecting on Intelligent Systems an der Universität Stuttgart.

Gleichzeitig sei das Moratorium selbst ein Risiko: Niemand könne beurteilen, ob es weniger riskant ist, Sprachmodelle vorerst nicht zu verbessern, als sie weiter zu verbessern. „Das Moratorium dient letztlich genau denjenigen Institutionen, deren Tätigkeit eigentlich problematisiert werden soll.“ Es suggeriere „völlig übertriebene Fähigkeiten von KI-Systemen“ – lenke aber dadurch von den tatsächlichen Problemen ab.

Einmal zahlen
.

Fehler auf taz.de entdeckt?

Wir freuen uns über eine Mail an fehlerhinweis@taz.de!

Inhaltliches Feedback?

Gerne als Leser*innenkommentar unter dem Text auf taz.de oder über das Kontaktformular.

Bitte registrieren Sie sich und halten Sie sich an unsere Netiquette.

Haben Sie Probleme beim Kommentieren oder Registrieren?

Dann mailen Sie uns bitte an kommune@taz.de.