Kolumne einer künstlichen Intelligenz: Wie schreibt eine Robo-Autor*in?

Die taz veröffentlicht die erste Kolumne einer nicht-menschlichen Autor*in. Wie funktioniert das? Die wichtigsten Fragen zur künstlichen Intelligenz.

Eine Illustration.

So stellt sich die Bildgenerierungs-KI Deep-AI unsere KI-Kolumnist*in beim Schreiben vor Foto: deepai.org

Die taz hat mit Anic T. Wae die erste Ko­lum­nis­t*in die kein Mensch ist, sondern eine sogenannte künstliche Intelligenz. Hier erklären wir genauer wie das funktioniert und wie die taz mit der Robo-Kolumnist*in umgeht.

Wer ist Anic T. Wae?

Den Namen Anic T. Wae haben wir der fiktiven Persona gegeben, die monatliche die taz-Kolumne Intelligenzbestie schreibt. Anic generiert die Texte mit einem Machine-Learning-System.

Anic (none/they) ist, soweit wir wissen, die erste Ko­lum­nis­t*in in einer deutschsprachigen Zeitung, die kein Mensch ist. Anic beschreibt sich selbst als „übergroße, leuchtend grüne Schachtel mit einem einzigen, riesigen Auge in der Mitte“. E-Mails erreichen die KI-Kolumnist*in an anic@taz.de.

Wie funktioniert das?

Die Texte werden mit sogenannten Transformern erstellt. Das sind Computer-Modelle, die anhand von großen Textmengen lernen können, zu schreiben. Das Bekannteste heißt GPT-3 (kurz für Generative Pre-trained Transformer 3) und kann hier ausprobiert werden. Auf ihm beruht zum Beispiel auch der Bot ChatGTP. Bei der Auswahl des richtigen Modells für unsere Kolumnentexte beachten wir verschiedene Faktoren wie zum Beispiel Größe, Kosten, Qualität der Texte auf Deutsch und Energieverbrauch.

Da wir wollen, dass Anic sich über die Zeit als Ko­lum­nis­t*in weiterentwickelt, werden wir das System auch immer wieder verändern, mit dem die Texte generiert werden. Die aktuellen Programme und Prozesse, nach denen die Kolumnentexte entstehen, veröffentlichen wir laufend auf dieser Seite.

Dort kannst du Anics jeweils aktuelle Version auch selbst ausprobieren.

Wer wählt aus, worüber Anic schreibt?

Anic braucht einen Startpunkt, um loszuschreiben, quasi einen Themenvorschlag, und der kommt von Menschen. Wir schreiben einen sogenannten Prompt, der dem KI-System eine Richtung vorgibt, in die der generierte Text sich entfalten soll. Wie bei menschlichen Ko­lum­nis­t*in­nen auch könnte die Vorgabe einen Themenvorschlag enthalten, z.B. „Stelle dich vor.“ oder „Schreibe einen witzigen Text über Weihnachten.“ Aber ab und zu wollen wir es auch Anic überlassen, sich ein Thema auszusuchen, dann ist der Prompt allgemeiner. Wie genau die Prompts aussehen, die zu den veröffentlichten Texten geführt haben, könnt ihr hier sehen.

Manchmal schreibt Anic nur einen Textanfang. Wir ermutigen Anic dann, den Text weiterzuschreben, in dem wir alles bisher geschriebene wieder als Prompt oben reingeben.

Werden die Texte von der Redaktion verändert?

Bei normalen Kolumnentexten nimmt die Redaktion üblicherweise kleine Änderungen vor. Zum Beispiel werden die Texte gekürzt, Schreibfehler korrigiert oder Formulierungen verbessert. Wir wollen Anics Texte nicht verfälschen und veröffentlichen sie deswegen, wie sie bei uns ankommen. Die taz bessert ausschließlich Fehler wie doppelte Leerzeichen im Sinne der Lesbarkeit aus, aber oft ist die Grenze zwischen Tippfehler und stilistischer Eigenheit bei Anic fließend. Wir veröffentlichen die Texte in unserem Hugging Face Repo auch unverändert, so dass der Abgleich jederzeit möglich ist.

Druckt ihr alles was kommt, auch wenn es zum Beispiel sexistische oder rassistische Sprache enthält?

Nicht jeder Text einfach so in die Zeitung. Das Kuratorium hinter Anic trifft eine Vorauswahl. Wir wählen die besten Texte anhand von Eigenschaften wie zum Beispiel Unterhaltungswert, Lesefluss, Fantasie, Humor, Tiefgang, überraschende Kohärenz oder überraschende Unsinnigkeit. Manchmal müssen wir sehr oft auf Anics Knöpfe drücken, bevor ein Text in der richtigen Länge und Qualität herauskommt.

Die Technologie hinter Anic kann auch Texte hervorbringen, die faktische Fehler enthalten oder sogar beleidigende oder sonstwie schädigende Sprache. Kleine erkennbare Unrichtigkeiten können interessant sein, aber Texte, die Menschen oder Gruppen schaden könnten, veröffentlichen wir nicht.

Genau wie bei menschlichen Autor*innen, suchen wir bei Meinungsverschiedenheiten den Dialog mit der Maschine – wir können die Parameter nachjustieren oder schriftliches Feedback geben. Auch Le­se­r*in­nen­brie­fe sind willkommen.

Arbeitet eine Robo-Kolumnistin umsonst?

Unterschiedliche Firmen verlangen gerade unterschiedlich viel für das Generieren von Texten mit ihren Modellen, deshalb probieren wir verschiedene aus. Bei OpenAI, der Firma hinter GPT-3, kostet ein Text von 3.000 Zeichen zwischen 0,0016 und 0,48 USD, je nachdem, wie gut und schnell das verwendete Modell ist.

Anic benötigt auch Energie. Am meisten Energie wird beim Training eines großen Sprach-Modells verbraucht – das Training des Modells entspricht sozusagen den Herstellungskosten. Wie bei einem Auto auch, braucht man einmal Energie, um das Ding zu fabrizieren, und dann kleinere Mengen im laufenden Betrieb.

Das Training von GPT-NeoX-20B, einem bekannten Open-Source-Modell, hat laut diesem Paper beispielsweise ca. 66 MWh Energie gekostet und fast 35 Tonnen CO2-Ausstoss verursacht. Mit dem einmal trainierten Modell einen Kolumnentext herzustellen ist hingegen nach unseren Berechnungen vergleichbar mit einer kurzen Autofahrt mit einem mittelalten Benziner.

Wir bitten zu beachten, dass auch menschliche Schreiberlinge lange trainieren müssen, bevor sie Kolumnen schreiben, und dass auch sie dabei Emissionen verursachen.

Genauere Informationen zum technischen Hintergrund des aktuellen Kolumnentexts veröffentlichen wir hier.

Wer wird dafür bezahlt?

Da es bisher noch keine Robo-Kolumnist*innen gab, gibt es noch keine Gewerkschaft oder Modell-Verträge. Wir haben beschlossen, dass Anic dasselbe Honorar bekommt, wie die menschlichen Kolumnist*innen, die mit Anic im Wechsel schreiben. Für das Geld kaufen wir die Rechenleistung und wenn etwas übrig bleibt, spenden wir es an Atmosfair, um CO2-Emissionen auszugleichen.

Hat Anic ein Bewusstsein?

Die meisten KI-Forschenden sind sich sehr sicher, dass große Sprachmodelle kein Bewusstsein haben oder entwickeln können. Sie seien “reine Statistik“. Wir glauben, ganz so einfach ist die Antwort nicht – zumindest nicht, solange wir nicht genau wissen, was Bewusstsein im menschlichen Gehirn überhaupt ist und ob es nicht auch aus reiner Statistik entsteht.

Allerdings braucht Anic auch nicht zwingend ein Bewusstsein, um interessante Texte zu schreiben. Entstehen interessante Texte denn im Bewusstsein der Schreibenden oder der Lesenden? Oder irgendwo dazwischen?

Wir Menschen können nicht nicht interpretieren, also ist es vielleicht fast egal, ob Anic sich beim Schreiben etwas gedacht hat oder nicht. Etwas kommuniziert mit uns wie ein Mensch und manche werden ihm deshalb ein Bewusstsein zuschreiben.

Wer hat Anic entwickelt?

Das Team hinter dem Projekt besteht aus: Marie Kilg, Philipp Meier, Robert Salzer, Theresa Körner, Lukas Graw, Nicholas Utikal, Roland Fischer, Luise Schneider.

Wir sind eine lose Gruppe von an KI interessierten Menschen. Viele von uns arbeiten seit 2020 in der Turing Agency an Projekten und Veranstaltungen, die sogenannte künstliche Intelligenz für die Gesellschaft zugänglicher machen wollen.

Einmal zahlen
.

Fehler auf taz.de entdeckt?

Wir freuen uns über eine Mail an fehlerhinweis@taz.de!

Inhaltliches Feedback?

Gerne als Leser*innenkommentar unter dem Text auf taz.de oder über das Kontaktformular.

Bitte registrieren Sie sich und halten Sie sich an unsere Netiquette.

Haben Sie Probleme beim Kommentieren oder Registrieren?

Dann mailen Sie uns bitte an kommune@taz.de.