Liebe Leserinnen und Leser,
die in der Nacht versandte Version dieses GI-Radars hatte leider einen Fehler: Der Betreff der E-Mail war falsch. Mit dieser E-Mail erhalten Sie nun die richtige Version. Die kurze Pause, die wir im Abspann ankündigen, können wir offenbar gut gebrauchen.
In dieser Ausgabe stellen wir ein Positionspapier der Leopoldina zu Generativer KI vor, es geht es um den Digital Service Act, Investitionen in den Banken, Bewertungssysteme und den Big Brother Award. Das Thema im Fokus beleuchtet, ob und wie generative KI unseren Umgang verändert. In den GI-Meldungen zeigen wir Ihnen eine Rückschau zu unserem Informatik Festival, weisen Sie auf die laufende Präsidiumswahl mit der individuellen Verifikationsmöglichkeit hin, zeigen stolz, wo wir überall beim Digitalgipfel vertreten sind und stellen Stellen in der GI vor. Im Fundstück geht es um die Autovervollständigung von Google.
Wir wünschen Ihnen viel Spaß mit dieser Ausgabe.
auf gi-radar.de weiterlesen
Diskussionspapier zu Generativer KI + Digital Service Act + Bankentransformation + Bewertungen im Netz + Big Brother Award + Es spricht! + Rückschau Informatik Festival + Präsidiumswahl + Wahlverifikation + Digitalgipfel + Jobs bei der GI + Google Feud
KURZMITTEILUNGEN
Diskussionspapier der Nationalen Akademie der Wissenschaften Leopoldina zu Generativer KI. Seit knapp zwei Jahre stellt ChatGPT die (Netz-)Welt auf den Kopf und spaltet sie in Euphorie und Weltuntergang. Die Leopoldina skizziert den „Werdegang“ der Technologie, thematisiert die Frage von Kontrolle und Verantwortung und ruft zu einer offenen Diskussion auf. weiterlesen
Umsetzung des Digital Service Act (DSA): was es zu beachten gilt (NZZ). In Deutschland ist die Bundesnetzagentur damit beauftragt, den DSA umzusetzen. Es geht konkret darum, wie problematische Inhalte aus dem Internet gefunden, gemeldet und geahnt werden können. Auf der einen Seite trifft dieses Ansinnen auf großen Zuspruch, auf der anderen Seite könnten auch die Gefahr der Zensur drohen. weiterlesen
Bankentransformation: KI-Investitionen vorn (Computerwoche). Laut einer Studie entfällt mittlerweile knapp ein Drittel des Budgets für die Transformation des Kundschaftserlebnisses in Banken auf KI, maschinelles Lernen und generative KI (GenAI). Die Banken erhoffen sich damit straffere Prozesse, eine bessere Ansprache der Zielgruppe und mehr personalisierte Dienstleistungen. weiterlesen
Wie fanden Sie Ihr Restaurant? Ein augenzwinkernder Blick auf die grassierende Bewertungskultur (taz). Sicherlich kennen Sie das: Sie waren in der Autowerkstatt, im Restaurant, im Hotel oder haben bei Ihrer Bank angerufen. Promt erhalten Sie eine Mail mit der Bitte, Ihren Besuch bzw. Kontakt zu bewerten. Machen Sie noch mit, oder sind Sie der „Gamification als Menschenmaterial“ schon entkommen? weiterlesen
Big Brother is watching you: ausgezeichnete Personen und Institutionen (heise). Alle Jahre wieder – seit dem Jahr 2000 – wird der Big Brother Award verliehen für die größten Datenkraken. Diesjährige Preisträger sind ein Gesundheitsminister, ein Transportunternehmen, Handelsplattformen, eine Polizei und der Technikpaternalismus. weiterlesen
THEMA IM FOKUS
Es kann sprechen! Die Nobelpreise für Physik und Chemie wurden in diesem Jahr für Verdienste im Zusammenhang mit Künstlicher Intelligenz (KI), einem Teilgebiet der Informatik, verliehen. Das allein ist schon bemerkenswert. Mindestens genauso bemerkenswert ist aber, dass zwei der Preisträger vor dem, für das sie die Grundlagen geschaffen haben, bereits seit Jahren warnen. Einer hat seine Warnung sogar anlässlich der Bekanntgabe der Preisverleihung spontan wiederholt: „In the same circumstances I would do the same again, but I am worried that the overall consequence of this might be systems more intelligent than us that eventually take control“, so Geoffrey Hinton [heute journal vom 8. Oktober 2024, 24:05]. Während wir uns also freuen dürfen, dass Leistungen der Informatik als nobelpreiswürdig anerkannt werden (Geoffrey Hinton hatte 2018 schon den Turing-Preis bekommen, aber wer nimmt davon Notiz?), kommen wir nicht umhin, zu bemerken, dass diese ungewöhnliche Entscheidung des Komitees eine starke politische Komponente hat: Sie klingt wie ein Weckruf an die Welt. Warum aber ein solcher Weckruf?
Bis vor kurzem war die Rollenverteilung zwischen Mensch und Computer klar: Menschen sind Generalisten, Computer sind Spezialisten. Menschen können sich in nahezu beliebigen Kontexten scheinbar spielerisch bewegen, Computer können in eng umrissenen Kontexten komplizierte Aufgaben, für die sie programmiert wurden, mit großer Geschwindigkeit und Genauigkeit lösen. Menschen besitzen Weltwissen, Computer besitzen Spezialwissen.
Mit dem Aufkommen der sogenannten großen Sprachmodelle und ihrer Verwandten in anderen Gebieten wie der Bild- und Musikverarbeitung, die Inhalte generieren können anstatt sie nur zu klassifizieren (die sog. Generative KI), hat sich das schlagartig geändert. Da sie alles integriert haben, dessen ihre Hersteller habhaft werden konnten (faktisch: das „Weltwissen“, wie es durch das WWW verkörpert wird), können sie beliebige, ihnen vorgelegte Schnipsel, in Kontexte einbetten und darin vervollständigen. So entsteht aus einem Anfang einer Geschichte, einem sog. Prompt, eine vollständige Geschichte, die in den identifizierten Kontext passt und in diesem wohlbegründet scheint [State of GPT (youtube)]. Scheint, nicht ist, weil das Sprachmodell nicht begründet, also logisch stringent vorgeht, sondern einfach nur spricht (manche würden vielleicht sagen: plappert). Dass die damit erzielten Leistungen so beeindruckend sind, liegt schlicht daran, dass wir Menschen in den meisten Alltagssituation auch eher reflexhaft sprechen (plappern) und nicht begründen, denn dafür würden wir zu lange brauchen. Was unser „schnelles Denken“ [Schnelles Denken, langsames Denken – Wikipedia] angeht, haben wir unser Ebenbild geschaffen. Es kann auf einmal sprechen, das fasziniert und erschreckt uns zugleich.
Bedeutung für Bildung und Arbeit. Wenn jetzt allerorts davon gesprochen wird, dass Menschen neue Kompetenzen für den Umgang mit Generativer KI erwerben müssten [Fit für KI: Welche Kompetenzen in der Arbeitswelt wichtig werden - PLS (plattform-lernende-systeme.de)] und gar neue Berufsbilder wie das des Prompt Engineers entworfen werden [Prompt Engineer – Berufsbild (jobvector.de)], dann scheint das übertrieben. Das Formulieren von Prompts, die zu gewünschten Ergebnissen führen, ist nicht viel schwieriger als das Formulieren geeigneter Anfragen für Suchmaschinen – wer das nicht gut kann, ist zwar im Nachteil, aber die Maschine lehrt uns den Umgang mit ihr selbst, und wer bereit ist, etwas Zeit mit ihr zu verbringen und zu experimentieren, wird schnell von allein besser. Insbesondere junge Menschen brauchen keine umfassenden Bedienungsanleitungen (wann haben Sie zuletzt eine Bedienungsanleitung auch nur gesehen?). Was sie hingegen lernen müssen, ist, die Qualität der vorgefundenen Leistungen zu hinterfragen, selbst wenn ihnen hierfür eigenes Kontrollwissen fehlt [Large Language Models und ihre Potenziale im Bildungssystem. Impulspapier der SWK. Januar 2024 (swk-bildung.org)]. Angesichts des ausufernden Angebots unmoderierter Inhalte auf Internetplattformen ist dies aber eine universell notwendige Qualifikation und keine, die speziell auf die Nutzung Generativer KI abzielen muss [Wie erkennt man Fake News in Sozialen Medien? (wien.gv.at)]. Tatsächlich lassen sich automatisch generierte Inhalte von solchen mit genuin menschlicher Autorenschaft schon heute kaum noch unterscheiden – Sinn und Unsinn hingegen schon.
Die mangelnde Unterscheidbarkeit von menschlichen und maschinellen Leistungen wirft natürlich die Frage auf, ob Generative KI menschliche Leistung ersetzen kann [Droht KI den Menschen zu ersetzen? | Künstliche Intelligenz | bpb.de]. Zwar ist Plappern kein Beruf und wird nur selten bezahlt, doch in bestimmten Kontexten mag es reichen, so dass in diesen Kontexten Menschen ersetzt werden können. Das kann man zunächst einmal positiv konnotieren: Die Geschichte der modernen Menschheit ist ganz wesentlich von dem Bestreben geprägt, menschliche durch Maschinenleistung zu ersetzen. Von den meisten wird das als Fortschritt empfunden, der durchaus dem Wohle aller dient. Wenn die Leistung jetzt aus Plappern besteht und dieses Plappern seinen Zweck erfüllt, warum nicht?
Das Problem der Zuschreibung. Die Probleme beginnen jedoch, wenn arglistig menschliche Leistung vorgetäuscht wird. Und da sind wir dann tatsächlich bei der Bildung: Überall da, wo Ausarbeitungen ganz oder teilweise von einer Maschine erstellt und als eigene vorgelegt werden, um eine gestellte Aufgabe zu erfüllen und dafür beurteilt zu werden, besteht die sehr reale Gefahr, einem Prüfling eine Leistung zu attestieren, die faktisch nicht von ihm erbracht wurde. Das Problem ist hierbei, dass man den Betrug nur schwer nachweisen kann, denn die automatisch generierten Texte geben kaum Hinweise auf ihre Herkunft [ChatGPT im Einsatz? Nachweis von KI-Täuschungen oft schwierig (it-daily.net)], außer dass sie vielleicht besser sind als das, was ein Prüfling bisher geleistet hat. Ein „mangelhaft“ jedoch mit der Begründung „diese Leistung war zu gut für dich“ zu vergeben, wird den Protesten der Eltern und Anwaltschaft kaum standhalten. Entsprechendes gilt für die Ablehnung von Forschungsanträgen oder die Löschung von Äußerungen im Internet mit der Begründung, sie kämen mutmaßlich von einem Chatbot.
Aber auch ohne Arglist ist die mangelnde Zuschreibbarkeit von Leistungen eine Herausforderung für unsere Gesellschaft. Was, wenn ein uns berührender Liebesbrief oder eine Trauerrede, von einer Maschine geschrieben wurde? [Künstliche Intelligenz generiert Liebesbriefe auf Deutsch (computerbild.de)] Werden nicht alle Ansprachen dadurch entwertet, dass sie genauso gut von einem Automaten hätten verfasst werden können? Oder reicht es uns, dass der Mensch, der etwas äußert, glaubhaft hinter der Äußerung steht, auch wenn er sie nicht selbst formuliert hat? Ein ständiges „genau das wollte ich sagen“ anstatt es selbst zu sagen? Wäre es dann nicht ökonomischer, nur noch mit den Prompts zu kommunizieren, aus denen die Äußerungen generiert werden können? Das würde auch die Praxis, auf der Senderseite Dokumente aus Stichworten erzeugen und auf der Empfängerseite die Dokumente wieder in Zusammenfassungen (Stichworte) reduzieren zu lassen, überflüssig machen. In jedem Fall bleibt die Entwertung der Sprache als Ausdrucksform eines Individuums.
Vom Sprechen zur übermenschlichen Intelligenz. Wenn uns schon die Beherrschung unserer Sprache durch eine Maschine anfasst, was erst, wenn eine Maschine in jeder Hinsicht besser ist als wir Menschen? Eine künstliche allgemeine Superintelligenz [Superintelligenz: Die Zukunft Künstlicher Intelligenz (deutschlandfunk.de)]? Das wäre vermutlich dann der Fall, wenn es gelingt, das „schnelle Denken“ (Plappern) der Generativen KI mit dem „langsamen Denken“, also der logischen Schlussfolgerung und allen anderen Dingen, die Computer besser können als Menschen, zu verbinden. In Teilen findet dies bereits statt: So generiert ChatGPT bei manchen Fragestellungen im Hintergrund Programme, die es dann selbst ausführt, um eine Antwort zu berechnen anstatt sie zu raten, wie es ein reines Sprachmodell machen würde. Von hier zur selbsttätigen Formulierung von Modellen und deren Simulation zwecks begründeter Beantwortung komplexer Was-wäre-wenn-Fragestellungen scheint kein allzu großer Schritt mehr, genauso wenig wie die Planung von Handlungen, die zu einem gewünschten Ergebnis führen. Wenn dann noch eine Maschine (dieselbe oder eine andere) die Probleme stellt, die es abzuarbeiten gilt, dann fehlt zur autonom entscheidenden und handelnden künstlichen Intelligenz nur noch die Schnittstelle zur Realwelt.
Drei existenzielle Gefahren. Die erste existenzielle Gefahr ist, dass KI unkontrolliert in die Realwelt eingreift. Zum Teil ist das schon jetzt der Fall, indem nämlich automatisch generierte Inhalte über sogenannte Soziale Medien und andere Plattformen Menschen gezielt beeinflussen mit dem Zweck, ein bestimmtes Verhalten zu erwirken [Social Media Manipulation in the Era of AI (RAND)]. Hierbei ist aber immer noch der Aktor Mensch in der Schleife, der sich der Beeinflussung widersetzen kann und der letztlich die Verantwortung für sein Handeln trägt. Der Weg zum direkten Eingreifen in die Realwelt ist jedoch nicht mehr weit: Dazu muss man lediglich KI-Systeme mit Bankkonten ausstatten und mit der Autorität, eigenständig Transaktionen durchzuführen. Sollte es einem solchen System (oder vielen vernetzten) gelingen, genügend Vermögen anzuhäufen (warum nicht?), dann wäre es in der Lage, ganze Staaten in die Defensive zu zwingen, wie es einst Hedge Fonds mit ihren Spekulationen gegen den Euro gemacht haben [Wetten auf Euro-Crash werden Hedgefonds zum Verhängnis (manager-magazin.de)].
Die zweite existenzielle Gefahr ist, dass wir im Ernstfall KI-Systemen nicht den Stecker ziehen können, weil wir nicht wissen, was dann passiert – wir uns also nicht für das geringere Übel entscheiden können. Was sich wie naive Panikmache anhören mag, ist in anderen Kontexten längst Realität: Selbst wenn die ganze Welt heute einmütig entscheiden sollte, dass die Duldung von Bitcoin als Zahlungsmittel und Spekulationsobjekt ein tragischer Fehler war und der Handel damit sofort abgestellt werden muss, um noch schlimmeres zu verhindern, wäre dies nicht möglich, weil es eine weltweite Finanzkrise riskiert, gegen die sich die Folgen der Pleite der Lehman-Bank 2008 wie ein schiefgegangener Kindergeburtstag ausnehmen [Ranking der größten Kryptowährungen nach Marktkapitalisierung im Oktober 2024 (de.statista.com) vs. Lehman schockt erneut (dw.com)]. Da hilft es leider gar nichts, dass wir Bitcoin technisch jederzeit den Stecker ziehen könnten. Was aber erst, wenn wir KI-Systeme in die Optimierung unserer Infrastruktur, die Verteilung von Ressourcen oder die Absicherung unserer Gesellschaften gegen Gefahren von innen und außen einbinden und irgendwann feststellen, dass dies trotz bester Absichten aus dem Ruder läuft? Können wir sicher vorhersagen, was passiert, wenn wir die Systeme abschalten? Falls ja, können wir uns die Folgen leisten? Falls nein, wollen wir uns die Unsicherheit leisten?
Die dritte existenzielle Gefahr ist der Zeitgeist, speziell das Nachplappern von absurden Erzählungen von der „erlaubnislosen Innovation“ als Motor des Fortschritts und des ewigen Wohlstands aller [AI Decoded - BBC News (youtube, 6:20, 7:30)]. In Zusammenhang mit dem globalen Wettbewerb führt er zu einem erheblichen Druck auf Regulierungsbestrebungen wie die der EU [KI-Dilemma in Europa: Meta und Apple halten KI-Tools zurück (finanzmarktwelt.de)], für die es freilich keine Alternative gibt, wenn wir unsere Zukunft selbst gestalten wollen. Noch haben wir das in der Hand, aber die Zeit läuft aus.
Dieser Text wurde von GI-Präsidiumsmitglied Friedrich Steimann beigesteuert. Er lehrt an der Fernuniversität in Hagen Informatik. Vielen Dank!
GI-MELDUNGEN
Informatik Festival verpasst? Das ist nur halb schlimm. Unser Team hat ausführlich dokumentiert, Bilder, Stimmungen und Stimmen eingefangen und zu einem unterhaltsamen und bunten Clip zusammengeschnitten. Schauen Sie selbst (Link geht zu YouTube)! weiterlesen
GI-Präsidiumswahl: wer sagt, wo es lang geht? Die GI-Präsidiumswahl ist gestartet und die wahlberechtigten (!) Mitglieder sollten ihre Wahlunterlagen erhalten haben. Ab sofort können Sie entscheiden, wen sie ab dem kommenden Jahr für drei Jahre im GI-Präsidium sehen möchten. Zur Wahl stehen sieben Personen für drei Plätze. Alle sieben bieten ganz unterschiedliche Themen an und haben Ihre Unterstützung verdient. Rund 600 Mitglieder haben schon gewählt. Wir freuen uns auf Ihr Votum. weiterlesen
Individuelle Verifikation der Wahl möglich. Für all diejenigen, die kontrollieren möchten, ob ihre Stimme unverändert in der Urne gelandet ist, bieten wir nach Abschluss der Wahl vier verschiedene Tools von vier unterschiedlichen Personen/Institutionen an, mit denen Sie ihre Stimme prüfen können – drei davon unabhängig vom Anbieter. Anhand der in Ihrem Wahlbrief abgedruckten persönlichen Wahl-ID sehen Sie bei der Verifikation Ihren Stimmzettel noch einmal. Details dazu hinter dem Link. weiterlesen
Digitalgipfel 2024 und die GI mittendrin. Anfang kommender Woche findet in Frankfurt der diesjährige Digitalgipfel statt. Die GI mischt hier kräftig mit, sei es auf dem Podium, in Panels oder in der Moderation. Spannende Themen, tolle Leute. weiterlesen
Lust, in der GI zu arbeiten? In unserer Geschäftsstelle in Berlin sind einige Positionen zu besetzen. Unter anderem geht es um die Themen Data Literacy, Green Coding und Wissenstransfer und Vernetzung. Wir freuen uns auf engagierte Menschen, die unser Team verstärken möchten. weiterlesen
Kennen Sie eigentlich den GI-Pressespiegel? Dort sammeln wir die Berichterstattung über unsere Fachgesellschaft in Zeitungs-, Radio- und Fernsehbeiträgen. Schauen Sie rein, es gibt da immer wieder Neues oder auch ältere Fundstücke.
FUNDSTÜCK
Google Feud. Google Feud ist ein Browserspiel für zwischendurch, bei dem die Spielerinnen und Spieler die Autovervollständigungsvorschläge von Google erraten müssen. Dazu müssen sie sich die Frage stellen, wonach wohl die meisten Menschen suchen. Etwas Ähnliches gab es schon einmal im Fernsehen: In den 1990er Jahren lief dort das "Familienduell". Anders als damals tun sich beim Blick auf die Suchanfragen manchmal Abgründe auf. Ist es gut oder schlecht zu wissen, wie die meisten Menschen Suchanfragen wie „can the government control …” vervollständigen. Das Spiel hält uns einen Spiegel vor und lädt uns ein, kritisch über unsere Suchgewohnheiten und unser kollektives Denken nachzudenken. Zum Fundstück (googlefeud.com)
Dieses Fundstück hat unsere Leserin Denise Schmitz vorgeschlagen. Vielen Dank! Welches Fundstück hat Sie zuletzt inspiriert? Senden Sie uns Ihre Ideen!
Dies war Ausgabe 366 des GI-Radars vom 18.10.2024. Zusammengestellt hat diese Ausgabe Dominik Herrmann, der sich immer noch darüber wundert, dass die Suchanfrage “can dogs learn to” offenbar am häufigsten mit “talk” vervollständigt wird. GI-Geschäftsführerin Cornelia Winter hat die Mitteilungen und Meldungen zusammengetragen. Die Radar-Redaktion macht nun eine kurze Pause. Das nächste Radar erscheint daher erst am 15. November.
Im GI-Radar berichten wir alle zwei Wochen über ausgewählte Informatik-Themen. Wir sind sehr an Ihrer Meinung interessiert. Für Anregungen und Kritik haben wir ein offenes Ohr, entweder per E-Mail (redaktion@gi-radar.de) oder über das Feedback-Formular bei SurveyMonkey. Links und Texte können Sie uns auch via X unter @informatikradar zukommen lassen.
|