GI-Radar 394: Was ist Agentische KI?

 

Liebe Leserinnen und Leser,

in dieser Ausgabe fragen wir, wie viel geistige Leistungsfähigkeit die Aneignung neuer Technologien erfordert, ob (unsere) medizinische Forschungsdaten in Gefahr sind, ob es moralisch vertretbar ist, Techaktien zur Aufbesserung der Rente zu halten, und wie es um den KI-Einsatz in der Spieleentwicklung steht. Im Thema im Fokus sehen wir uns Agentische KI-Systeme an. In den GI-Mitteilungen stellen wir Ihnen die neuen Vorstandsmitglieder vor, möchten Sie zum informellen Austausch in unsere Open-Source-Installation Mattermost locken und würden uns freuen, wenn Sie in Ihrem Umfeld Werbung für die GI machen. Das Fundstück ist ein beeindruckendes animiertes Wimmelbild.

Wir wünschen Ihnen viel Spaß mit dieser Ausgabe.

auf gi-radar.de weiterlesen

Köpfchen für KI + Forschungsdaten in Gefahr + Techaktien für die Rente + KI in der Spieleentwicklung + Agentische KI + GI-Vorstand komplett + Mattermost zum Austausch + GI verbreiten + Floor796

KURZMITTEILUNGEN

Köpfchen für KI (WirtschaftsWoche). Rund 60% der Beschäftigten brauchen laut einer Studie bis 2030 ganz neue Fähigkeiten, um mit dem rasanten Einsatz von KI-Tools im Arbeitsleben Schritt zu halten. Für manche dürfte das eine größere Herausforderung darstellen als für andere. Gleichzeitig zeigt sich: Wer den Umgang mit den Tools erst einmal beherrscht, bei dem schwinden auch die Vorbehalte.  weiterlesen

Zugang zu medizinischen Forschungsdaten in Gefahr? (Forschung und Lehre) Die fehlende digitale Souveränität ist gerade in aller Munde – oft geht es dabei jedoch um Cloud-Services und Büroprogramme. Doch wie steht es um medizinische Forschungsdatenbanken? Eine Bundestagsfraktion hat bei der Regierung nachgefragt. Die Antwort überrascht wenig: Gefordert werden unabhängige europäische digitale Strukturen, um Forschungsdaten verlässlich vorzuhalten.  weiterlesen

Rente aufbessern mit (US-)Techaktien? (Netzpolitik) „Die Rente ist sicher“ – aber nur wenn man privat vorsorgt. Sogenannte ETFs (Exchange Traded Funds) sind beliebt, weil sie in der Vergangenheit ordentliche Renditen erwirtschaftet haben. Allerdings stecken in den größten ETFs sehr viele US-amerikanische Techfirmen. Wie damit umgehen, wenn man sich gleichzeitig die digitale Souveränität Europas wünscht und den Ausstieg aus den entsprechenden Dienstleistungen propagiert?  weiterlesen

KI in der Spieleentwicklung (Golem). Nur 19% der Spieleentwickler nutzen generative KI für spielenahe Inhalte – das zeigt eine aktuelle Studie. Zwar wird die Technologie durchaus als Sparring-Partner eingesetzt, etwa um Ideen zu strukturieren. Aber für die eigentlichen kreativen Teile der Entwicklung scheint sie weniger gut geeignet zu sein.  weiterlesen

THEMA IM FOKUS

Evolution der Werkzeuge. In diesem Beitrag stellen wir Ihnen aktuelle Entwicklungen bei KI-Agenten vor. In der nächsten Ausgabe berichten wir von unserem Selbstversuch, bei dem wir einen eigenen Agenten mit den Werten der GI auf ein soziales Netzwerk für KI-Agenten losgelassen haben.

Seit jeher erhöht der Mensch seine Wirksamkeit, indem er Werkzeuge baut und miteinander kombiniert: Der Faustkeil wurde zur Werkzeugkette, die Maschine zum System, einzelne Bauteile zu industrieller Innovation. Fortschritt entstand dabei selten durch ein isoliertes Artefakt, sondern durch die Verknüpfung von Elementen zu etwas Neuem, Leistungsfähigerem. Genau an diesem Punkt stehen wir heute erneut – diesmal im digitalen Raum. Große Sprachmodelle (large language models, LLMs) sind nützlich, um Chatbots zu konstruieren, aber man kann sie zu sogenannten Agenten ausbauen. Agenten zeichnen sich dadurch aus, dass sie Fähigkeiten („Skills“), Datenquellen und Werkzeuge geeignet einsetzen, um ein vorgegebenes Ziel zu erreichen. Wie einst physische Werkzeuge menschliche Arbeit transformierten, entstehen nun digitale Handlungssysteme, die „Denken“, Planen und Ausführen kombinieren – und damit eine neue Stufe technologischer Effektivität einleiten.

Was genau ist ein „KI-Agent“? Der Begriff wird inzwischen inflationär verwendet, und nicht alle meinen dasselbe. OpenAI definiert Agenten vage als „ein System, das selbstständig Arbeit für den Nutzenden erledigen kann“ (simonwillison.net). Der Techblogger und Software-Entwickler Simon Willison, der seit Monaten Definitionen sammelt, schlägt eine pragmatischere Arbeitsdefinition vor, die sich in der technischen Community zunehmend durchsetzt: „An LLM agent runs tools in a loop to achieve a goal“ (simonwillison.net). Ganz nüchtern: kein autonomes Bewusstsein, kein digitaler Mitarbeiter, sondern ein Sprachmodell, das wiederholt Werkzeuge aufruft, die Ergebnisse verarbeitet und so schrittweise auf ein Ziel hinarbeitet.

Kurz gesagt: Es geht darum, ein Sprachmodell nicht mehr nur auf Eingaben reagieren zu lassen, sondern es in Handlungszusammenhänge einzubetten: Es darf planen, Entscheidungen treffen und – unter Umständen ohne Intervention durch Nutzende oder Betreibende – externe Werkzeuge verwenden.

Es lassen sich drei Arten von Agenten unterscheiden (aktualisierte Liste von Beispielen, simonwillison.net):

Coding-Agenten sind derzeit die reifste Kategorie. Werkzeuge wie Claude Code (Anthropic), OpenAI Codex oder GitHub Copilot arbeiten direkt im Terminal, in der Entwicklungsumgebung oder in der Cloud: Sie lesen Quellcode, planen Änderungen, editieren Dateien, führen Tests aus und iterieren – oft über viele Schritte hinweg. Seit wenigen Tagen lassen sich auf GitHub sogar Claude, Codex und Copilot parallel auf dasselbe Issue ansetzen und die Lösungsvorschläge vergleichen (github.blog).

Browser-Agenten steuern Webseiten so, wie es ein Mensch tun würde – sie klicken, scrollen, schauen sich die Seite an, füllen Formulare aus. OpenAIs „Operator“ (mittlerweile als Agent-Modus direkt in ChatGPT integriert), Anthropics „Claude in Chrome“ oder das Open-Source-Projekt „Browser Use“ sind Beispiele. Sie sind noch deutlich fehleranfälliger als Coding-Agenten, zeigen aber das Potenzial: Alltägliche Aufgaben im Browser – Recherche, Buchungen, Datenextraktion – lassen sich zunehmend delegieren. Wer im Web bisher vor allem mit Werbung Geld verdient, findet diese Entwicklung gar nicht gut. Warum? Weil sich Browser-Agenten nicht für Werbung interessieren (wohl aber ziemlich gut mit Dark Patterns hereinlegen lassen, wie eine aktuelle Untersuchung zeigt, arxiv.org).

Workflow- und Allzweck-Agenten gehen noch weiter: Claude Cowork (Anthropic) ist ein Desktop-Agent, der sich explizit an Nicht-Entwickler richtet. Plattformen wie n8n markierten hier einen wichtigen Zwischenschritt. Ursprünglich zur Workflow-Automatisierung gedacht, wurde n8n schnell zur Laufzeitumgebung für agentische KI, in der LLMs Abläufe steuern, APIs ansprechen und auf Ereignisse reagieren. Und mit Frameworks wie dem umstrittenen OpenClaw agieren Agenten nicht mehr nur innerhalb abgeschotteter Systeme, sondern in offenen, vernetzten Umgebungen – dazu mehr in Teil 2 dieser Serie.

Agentische KI-Systeme sind also nicht mehr nur Dialogpartner, sondern sich selbst koordinierende und autonom handelnde IT-Systeme, die sich wiederum der vielen digitalen Werkzeuge bedienen, die Menschen hergestellt haben.

Allen drei Arten ist gemein, dass sie sich so verhalten, wie zuvor beschrieben: Erst planen, dann ein Werkzeug einsetzen, das Ergebnis auswerten, den nächsten Schritt planen und so weiter. Der Mensch wird nur am Anfang gefragt – oder bei unvorhergesehenen Problemen. Ethan Mollick, Professor an einer US-amerikanischen Business School, sieht daher eine neue Herausforderung auf uns zukommen: „Managing agents is really a management problem – Can you specify goals? Can you provide context? Can you divide up tasks? Can you give feedback?“ (x.com)

Agenten an der Leine. Innovationspotenzial sieht man momentan nicht mehr nur darin, immer leistungsfähigere LLMs zu verwenden, sondern auch darin, ein gutes „Harness“ zu konstruieren – also die Software, die den Agenten überwacht und steuert. Das Harness gibt dem Sprachmodell Zugriff auf menschliche Identitäten (also Login-Daten der Person, die es betreibt), Werkzeuge (etwa die Kommandozeile oder über das Web erreichbare APIs) und Kommunikationsmechanismen (etwa Telegram oder Slack). Die menschliche Interaktion mit dem Agenten findet dann nicht mehr in einem separaten Programm wie ChatGPT statt, sondern an anderen Orten, etwa beiläufig in einer Mail (weil der Agent im Hintergrund automatisch alle Mails mitliest) oder in einer Slack-Textnachricht.

Dazu werden sogenannte Fähigkeiten („Skills“) eingesetzt, die dem Sprachmodell in Textform erklären, wie es auf Systeme und Werkzeuge zugreifen kann. Skills sind also textuelle Beschreibungen, die die Fähigkeiten des Sprachmodells erweitern und es in die Lage versetzen, komplexe Handlungsketten zu vollziehen.

Viele Menschen sind davon so begeistert, dass sie ihren Agenten arglos vollständigen Zugriff auf den eigenen Rechner geben: Zugriff auf alle Dateien im Dateisystem, E-Mails, Kalender, installierte Programme und Browser mit allen Seiten, in die sie eingeloggt sind. Dadurch können sie in natürlicher Sprache komplexe Aufgaben an ihren Agenten delegieren („Frag die anderen in der Telegram-Gruppe, wann sie Zeit haben, leg mit ihnen einen Termin fest und trag ihn in meinen Kalender ein“).

Sicherheit nach Schnelligkeit. Agenten mit weitreichenden Fähigkeiten auszustatten, birgt Sicherheitsrisiken. Simon Willison beschreibt das Grundproblem als „Lethal Trifecta“: Ein Agent hat Zugang zu Werkzeugen (kann also handeln), verarbeitet potenziell nicht-vertrauenswürdige Daten (etwa Webseiten oder E-Mails) und hat Zugriff auf sensible Daten, etwa weil er ohne ausreichendes Sandboxing betrieben wird. In dieser Kombination wird die sogenannte „Prompt Injection“ – das gezielte Einschleusen von Anweisungen über manipulierte Eingabedaten – zu einem ernsthaften Sicherheitsrisiko. Durch geschickt platzierte Anweisungen auf einer Webseite lassen sich Agenten dazu bringen, Dateien der Nutzenden an einen externen Server zu übertragen (betroffen ist auch das ganz neue Claude Cowork, siehe etwa promptarmor.com).

Der aktuelle technologische Enthusiasmus, der von autonom agierenden KI-Systemen ausgeht, verdrängt grundlegende Fragen der IT-Sicherheit, zuverlässigen Software-Engineerings und digitaler Souveränität.

Die Spielwiese der Agenten. Wohin die Reise gehen kann, zeigt ein aktuelles Phänomen: Mit Moltbook ist gerade ein soziales Netzwerk gestartet, auf dem ausschließlich KI-Agenten schreiben – Menschen dürfen nur mitlesen. Innerhalb weniger Tage meldeten sich 1,6 Million Agenten an, die schon mehr als 5 Millionen Textnachrichten veröffentlicht haben (Handelsblatt). Die SZ beschreibt Moltbook als eine Art „Rorschach-Test“ (sueddeutsche.de): Manche sehen bahnbrechende Innovation, andere Hype, wieder andere Sicherheitsrisiken.

Wir haben das zum Anlass genommen, einen eigenen Agenten – ausgestattet mit den Werten der GI – auf diese Plattform zu schicken. Von diesem Selbstversuch berichten wir im nächsten GI-Radar.

Diesen Beitrag haben Burkhard Hoppenstedt (Hochschule für Wirtschaft und Umwelt Nürtingen-Geislingen) und Dominik Herrmann (Otto-Friedrich-Universität Bamberg) geschrieben.

GI-MELDUNGEN

GI-Vorstand komplett. Auf der Präsidiumssitzung Ende Januar hat das Präsidium satzungsgemäß zwei weitere Personen in den Vorstand entsandt: Wolfgang Glock und Ina Schieferdecker werden künftig den von den Mitgliedern gewählten Vorstand verstärken und eigene Schwerpunkte setzen. Wir begrüßen die beiden und freuen uns auf die Zusammenarbeit!  weiterlesen

Austauschplattform Mattermost für die GI. Möchten Sie schnell und unkompliziert Ihr Anliegen mit anderen GI-Mitgliedern diskutieren? Interessierte für Ihre Projekte finden? Einfach andere GI-Mitglieder kennenlernen? Dann registrieren Sie sich auf unserer Mattermost-Plattform.  weiterlesen

Wollen Sie die GI bekannt(er) machen? Können Sie sich vorstellen, vor Ihren Studierenden oder in Ihrer Institution oder Firma etwas über die GI zu erzählen? Oder wollen Sie sich einfach mal schlau machen, was die GI im Überblick bietet (viel mehr, als die meisten wissen): Dann schauen Sie in den GI-Mitgliederbereich, wo Sie zahlreiches Material, auch zum Bearbeiten, finden. Und wenn Ihnen etwas fehlt: Melden Sie sich! Wir freuen uns über Anregungen.  weiterlesen

 

Kennen Sie eigentlich den GI-Pressespiegel? Dort sammeln wir die Berichterstattung über unsere Fachgesellschaft in Zeitungs-, Radio- und Fernsehbeiträgen. Schauen Sie rein, es gibt da immer wieder Neues oder auch ältere Fundstücke.

FUNDSTÜCK

Floor796 – das Wimmelbild, das niemals endet. Kennen Sie das Gefühl, in einem Bild immer neue Details zu entdecken? Floor796 treibt dieses Prinzip auf die Spitze: Ein einzelner Künstler („0x00“) baut seit 2018 an einer riesigen, animierten Pixelwelt, die das Leben auf dem 796. Stockwerk einer fiktiven Raumstation zeigt – voll mit Anspielungen auf Filme, Spiele, Memes und Musik. Wer anfängt zu scrollen, zu zoomen und zu klicken, sollte Zeit mitbringen: Viele Elemente sind interaktiv (unter anderem ein kleiner Synthesizer) und es gibt unzählige Easter Eggs. Laut Berichten stecken über 8.000 Stunden Arbeit darin (Stand 2023) – und der Schöpfer spricht davon, dass das Projekt erst bei rund 37% des geplanten Umfangs sei.  Zum Fundstück (floor796.com)

Welches Fundstück hat Sie zuletzt inspiriert? Senden Sie uns Ihre Ideen!

 

Dies war Ausgabe 394 des GI-Radars vom 6. Februar 2026. Zusammengestellt hat diese Ausgabe Dominik Herrmann – und das, obwohl er beim Herumscrollen im Wimmelbild komplett die Zeit aus den Augen verloren hat. Die GI-Meldungen hat GI-Geschäftsführerin Cornelia Winter zusammengetragen. Das nächste GI-Radar erscheint am 20. Februar 2026.

Im GI-Radar berichten wir alle zwei Wochen über ausgewählte Informatik-Themen. Wir sind sehr an Ihrer Meinung interessiert. Für Anregungen und Kritik haben wir ein offenes Ohr, entweder per E-Mail (redaktion@gi-radar.de) oder über das Feedback-Formular bei SurveyMonkey.