zum Hauptinhalt
Alles auf dem Tisch in der Bibliothek der Technischen Universität und der UdK.

© Thilo Rückeis TSP

Berliner Unis und die neuen KI-Systeme: „Wir haben ChatGPT im Visier“

Welche Folgen die Künstliche Intelligenz etwa für Prüfungsformate hat, wird intensiv diskutiert. Leitlinien gibt es noch nicht an den großen Berliner Unis.

Eine Frage im Umgang mit ChatGPT und anderen KI-gestützten Systemen, die Klausuraufgaben lösen und Teile schriftlicher Hausarbeiten generieren können, ist schnell beantwortet. „Unsere Regelungen zu Täuschungen müssen derzeit nicht angepasst werden: Wer beim Schummeln erwischt wird, fällt bei der Prüfung durch.“ So positioniert sich Christian Schröder, Vizepräsident der TU Berlin für Studium und Lehre, auf Anfrage des Tagesspiegels.

Genauso sieht man es auch an der Hertie School of Governance, der privaten Berliner Politik-Hochschule, die vor einer guten Woche wie berichtet als erste Hauptstadt-Hochschule konkrete interne Chatbot-Regeln veröffentlichte. Und die sind zu Täuschungsversuchen sehr deutlich: „Eine Arbeit, die von einer KI verfasst wurde, als eigene abzugeben, ist ein Plagiat und wird als solches geahndet.“

So weit wie die Hertie School sind die staatlichen Hochschulen noch nicht. Ob zum Start des Sommersemesters am 1. April überall Richtlinien zur Hand sind, bleibt fraglich. Warum es kompliziert ist, zeigt sich exemplarisch an der Technischen Universität.

Zu den ersten Einsichten über die Textmaschinen gehört, dass studentische Hausarbeiten und schriftliche Prüfungsformate nicht mehr dieselben sein können wie vorher. Eine Zeitenwende also für Leistungsnachweise an der Hochschule?

Vermutlich weiterhin nutzbar sind offene digitale Prüfungsformate für spezielle Rechnungen und hochspezialisierte Fragen.

Christian Schröder, TU-Vizepräsident für Studium und Lehre

„Es ist aktuell klar, dass Hausarbeiten durch solche Programme beeinflusst werden können“, konstatiert TU-Vizepräsident Schröder. Wenn also Studierende ihre Semesterarbeiten anfertigen, ist die Versuchung groß, Fragestellungen an ChatGPT weiterzureichen und die Antworten als eigene einzubauen. Hier stellt sich den Hochschulen vor allem die Frage, wie sie das erkennen können.

TU-Vize Schröder sagt, es gebe noch keine dafür nutzbare Plagiatssoftware und verweist auf das in Entwicklung befindliche eigene Tool des Anbieters OpenAI. Zwei Berliner Internet-Forscher raten in einem Gastbeitrag für den Tagesspiegel jedoch dazu, auf die Softwares GPTZero oder AI Text Classifier zurückzugreifen.

Kompliziert wird es Schröder zufolge insbesondere bei schriftlichen Prüfungen. Gefragt seien jetzt Formate, „in denen die Form der Hilfsmittel überprüfbar ist“. Sogenannte Open-Book-Klausuren, in denen die Studierenden Fachbücher, Nachschlagewerke und das Internet nutzen dürften, also auch ChatGPT, könne es in großen Grundlagenfächern nicht mehr geben.

Neue Formate und Weiterbildung brauchen Zeit

„Vermutlich weiterhin nutzbar“ seien solche offenen digitalen Formate „für spezielle Rechnungen und hochspezialisierte Fragen“ – wo der Chatbot nicht helfen kann. Letztlich müsse „für jede Prüfung individuell überprüft werden, welche Auswirkungen solche Programme haben“, so Schröder.

Er sieht die Uni einerseits unter Zeitdruck, zu handeln. Andererseits brauche es einen längeren Vorlauf, um die Lehrenden weiterzubilden und ihnen einen Erfahrungsaustausch untereinander zu ermöglichen. All das brauche „Zeit, die wir dafür bekommen müssen“.

Die Humboldt-Universität hat bereits einen Zeitplan, wie man zu Leitlinien kommen will, berichtete Niels Pinkwart, Vizepräsident für Lehre, jetzt im Akademischen Senat. Am 2. März findet ein Symposium auf dem Campus Adlershof dazu statt, besprochen werden sollen Möglichkeiten, Grenzen und technische Grundlagen der neuartigen Software in der Lehre. Weitere Workshops schließen sich an, die in eine Positionierung der Uni münden sollen. „Wir haben das Thema im Visier“, so Pinkwart.

Das Präsidium der Freien Universität trifft sich in dieser Woche zu einer Strategiesitzung, heißt es aus Dahlem. Zwar habe man sich noch keinen Termin für FU-Richtlinien gesetzt, aber schon jetzt gelte selbstverständlich: Werden Hausarbeiten mithilfe von KI angefertigt, wird „ein solches Vorgehen prüfungsrechtlich als Täuschung eingeordnet“.

Allerdings sei an der FU bislang „zentral kein solcher Fall bekannt“. Auch an der TU „wurde bisher kein Fall gemeldet“. Sind die Studierenden klug genug, nicht mit ChatGPT zu schummeln – oder sich nicht erwischen zu lassen? Es ist noch viel zu klären im Umgang mit der Text-KI. Nicht zuletzt, wobei sie Studierenden sinnvoll und legal helfen kann.

Zur Startseite