ChatGPT hat nach Veröffentlichung einen Hype ausgelöst.

Foto: AP / Richard Drew

"Was ChatGPT produziert, ist autoritativer Bullshit." Diese Aussage im amerikanischen Fernsehen hatte Gary Marcus einer breiteren Öffentlichkeit bekannt gemacht. Im Rahmen der "DIGHUM"-Vorlesungsreihe zu "Digital Humanities" an der Technischen Universität (TU) Wien erklärte der Psychologe, Neurowissenschafter, Autor und Entrepreneur am Donnerstagabend den Hintergrund seiner Worte und erläuterte Schwachstellen des gehypten Programms.

"Am Beginn der KI (künstlichen Intelligenz, Anm.) stand Hybris", stellte Marcus fest. Schon im Jahr 1967 hatte der MIT-Wissenschafter Marvin Minsky erklärt, dass "das Problem der KI innerhalb einer Generation gelöst sein wird". Dieses Versprechen sei, trotz des momentanen Hypes um ChatGPT, nicht eingelöst worden, so der emeritierte Professor für Psychologie und Neurowissenschaften an der New York University. Marcus ist Buchautor und schreibt regelmäßig Beiträge für Publikationen wie "The New Yorker", "Wired" und die "New York Times". Außerdem hat er schon mehrere KI-Firmen gegründet.

Schwächen

Die von der Entwicklerfirma OpenAI entwickelte Software ChatGPT knackte zwar zwei Monate nach der öffentlichen Vorstellung im November 2022 die Marke von 100 Millionen Nutzern – eine Zahl, für die die Videoplattform Tiktok neun Monate gebraucht hat und der Fotodienst Instagram zweieinhalb Jahre. Doch der Enthusiasmus hielt laut Marcus nicht lange an: Immer mehr Social-Media-Posts machen auf Schwächen des Programms aufmerksam. Demnach ist die Anwendung anfällig für die Verbreitung von Desinformation und auch die eingebauten Filter, die den Output von Hatespeech verhindern sollen, sind leicht zu überwinden. Die Suchmaschinenintegration bei Bing habe außerdem zu falschen Suchergebnissen geführt. Microsoft setzt bei seinem Bing-Chatbot auf Technik des Start-ups OpenAI und unterstützt das kalifornische KI-Unternehmen mit Milliarden.

Die vielen Fehler haben ihren Ursprung in dem der Anwendung zugrunde liegenden Prinzip: Sprachbasierte KI-Modelle lesen riesige Mengen an Text aus dem Internet aus, um plausible, menschlich klingende Sätze vorherzusagen. Aber "einen Satz vorherzusagen ist nicht dasselbe, wie einen Satz zu verstehen", so Marcus. Was fehlt, ist der Bezug zwischen Aussage und Inhalt. So verfüge das Programm über keinerlei Abstraktionsfähigkeit, deswegen können Aufgaben wie Sortieren und Zählen nicht verlässlich ausgeführt werden. Auch Schlussfolgern kann das Programm nicht. Außerdem hat es keinen Bezug zur Faktizität einer Aussage – die Vorhersage eines Satzes führe, wenn sie auf unzuverlässigen Quellen basiert, eben zu unzuverlässigen Aussagen. Das Ergebnis sind "Halluzinationen", also erfunden anmutende Aussagen des Programms.

"Generalprobe für KI"

Doch Marcus sieht die Fehlschläge positiv – der Start von ChatGPT sei "eine Generalprobe für KI" gewesen. Jetzige Fehler sollten die Grundlage für zukünftige Forschung bieten. Dabei ist für den Experten die Einbindung von Linguisten und Neurowissenschaftern zentral. Gerade dass prominente Figuren wie der Linguist Noam Chomsky sich jetzt in die Debatte einmischen, sei durchaus positiv, findet Marcus.

Zudem dürfe KI nicht für Werbezwecke entwickelt werden, so Marcus weiter. Das ist auch ein Ressourcenproblem: Unternehmen, die derzeit Milliarden in die Entwicklung von KI investieren, haben ein klares Profitinteresse. Demgegenüber sind Universitäten, die KI im öffentlichen Interesse entwickeln würden, budgetär einfach nicht konkurrenzfähig.

Politische Richtlinien

Die Rolle Europas aus Sicht des US-Amerikaners sei, in der aktuellen Entwicklung "politische Vorgaben zu setzen, denen andere folgen müssen". Eine starke europäische Richtlinie gegen Fehlinformation würde auch darüber hinaus Auswirkungen haben. Denn wenn Tech-Firmen gezwungen wären, für den europäischen Markt striktere Versionen zu entwickeln, würden sie diese mit hoher Wahrscheinlichkeit auch weltweit implementieren. Die EU verweist ihrerseits aktuell auf die Risiken von KI und drängt auf eine rasche Regulierung. (APA, 10.3.2023)