Zum Hauptinhalt springen
PublikationMeldung

Integratives Framework für KI-Audits veröffentlicht

Innovation fördern und ungewollte Diskriminierung verhindern – wie können KI-Systeme überprüft werden? ExamAI veröffentlich einen umfassenden Ansatz zur Verortung rechtlicher Anforderungen innerhalb eines KI-Systems.

Im nun veröffentlichten Beitrag „KI-Audit in der Arbeitswelt“ stellen Dr. Bernhard Waltl (Liquid Legal Institute e.V. / Gesellschaft für Informatik e.V.) und Nikolas Becker (Gesellschaft für Informatik e.V.) ein Framework zur Systematisierung von KI-Audits und -Tests vor, das sämtliche Bestandteile eines KI-Systems betrachtet. Innerhalb des technischen Frameworks lassen sich die gesetzlichen Anforderungen an sicherere und faire KI verorten.

Nikolas Becker, Projektleiter von ExamAI bei der Gesellschaft für Informatik: „Strategien und Methoden zur Minimierung von Risiken durch KI-Systeme haben sich nicht in der gleichen Geschwindigkeit entwickelt, wie die KI-Systeme selbst. Entsprechend sehen sich Entwickelnde und Anwendende in einem Spannungsfeld zwischen Diskriminierungsgefahr und dem erfolgversprechenden Einsatz der Technologie. Unser Framework ermöglicht es, die rechtlichen Anforderungen und Bestandteile eines Audits innerhalb eines komplexen KI-Systems zu verorten.“

Das Framework basiert dabei auf einem Audit für herkömmliche Software, berücksichtigt aber besonders Charakteristika wie Zuverlässigkeit oder Transparenz, die beim Umgang mit KI-Systemen eine hervorgehobene Rolle einnehmen. Darüber hinaus legt der Ansatz ein besonderes Augenmerk auf den Umgang mit KI-Anwendungen als soziotechnische Systeme, um aus einer transdisziplinären Perspektive für mehr Erklärbarkeit und Nachvollziehbarkeit der KI-Systeme zu sorgen.

Der Beitrag orientiert sich an den im ExamAI-Projekt entworfenen Use-Cases im Personal- und Talentmanagement und analysiert diese anhand der fünf Ebenen (1) Einsatzszenario und Anwendungsfall, (2) Lebenszyklus von software-intensiven KI-Systemen, (3) ADM Systeme, (4) Entscheidungsstrukturen und (5) ADM Entscheidungen. Abschließend werden im Papier konkrete Handlungsbedarfe auf dem Weg zu einer effektiven KI-Auditierung benannt.

Die Veröffentlichung zum Download:

Waltl, B., Becker, N. (2022). KI-Audit in der Arbeitswelt – Ein integratives Framework zum Auditieren und Testen von KI-Systemen.

Über ExamAI – KI Testing & Auditing

Das Projekt ExamAI – KI Testing & Auditing wird im Rahmen des Observatoriums Künstliche Intelligenz in Arbeit und Gesellschaft (KIO) der Denkfabrik Digitale Arbeitsgesellschaft gefördert. Die Denkfabrik, eine interdisziplinäre Organisationseinheit des Bundesministeriums für Arbeit und Soziales (BMAS), bündelt Projekte und Prozesse rund um die digitale Transformation innerhalb des BMAS und entwickelt daraus ein größeres Bild der Arbeitsgesellschaft der Zukunft. Mit dem KIO, einem Projekt im Rahmen der nationalen KI-Strategie, fokussiert das BMAS die Frage nach den Auswirkungen von KI auf Arbeit und Gesellschaft.