Wenn die Maschine in menschliche Abgründe blickt – Seite 1

Andreas Brück blickt fast täglich in menschliche Abgründe. Er sieht Fotos, auf denen Kinder zu sexuellen Handlungen gezwungen werden, auf denen sie unangemessen berührt oder auf andere Weise gedemütigt werden. Er sieht Videos, die das Leid der missbrauchten Kinder und Jugendlichen noch sichtbarer machen. Und dazwischen immer wieder harmlose Urlaubsfotos, Schnappschüsse von Geburtstagsfeiern, Familienausflügen. So geht es weiter, Bild für Bild. "Das macht etwas mit einem", sagt Brück.

Unmengen von Daten müssen der Kölner Staatsanwalt und seine Kolleginnen in der Zentral- und Ansprechstelle Cybercrime Nordrhein-Westfalen, kurz ZAC NRW, auf diese Weise durchsuchen. Gemeinsam mit spezialisierten Polizeidienststellen fahnden sie auf sichergestellten Festplatten, Mobiltelefonen und anderen Datenträgern nach Kinder- und Jugendpornografie. Denn viele Täter fotografieren und filmen ihre Opfer, während sie sich an ihnen vergehen – und sammeln die Dokumente zu Tausenden auf ihren Rechnern. Zudem wird das Material in Foren und Chats ausgetauscht und verbreitet sich auf diese Weise rasend schnell. Im Jahr 2020 verzeichnete die deutsche Justiz laut der polizeilichen Kriminalstatistik rund 22.000 Fälle von "Verbreitung, Erwerb, Besitz und Herstellung kinder- und jugendpornografischer Schriften". Das ist im Vergleich zum Vorjahr ein Anstieg um mehr als 50 Prozent. In Nordrhein-Westfalen stehen die Ortsnamen Lügde, Münster und Bergisch Gladbach beispielhaft für drei große Pädophilennetzwerke, die in jüngerer Vergangenheit aufgedeckt werden konnten; beschlagnahmt wurden dabei Tausende Terabyte Datenmaterial.

Die Auswertung der Fotos und Videos ist nicht nur psychisch herausfordernd für die Ermittler. Sie stehen dabei auch unter massivem Zeitdruck. Innerhalb nur eines Tages müssen sie entscheiden, ob eine Untersuchungshaft begründet ist. Anschließend geben ihnen die Gerichte in den meisten Fällen weniger als ein halbes Jahr, bis die Anklage stehen muss. Außerdem wollen die Ermittler möglichst frühzeitig auf noch unbekanntes Material und damit auf möglicherweise noch laufende Missbrauchsfälle aufmerksam werden, um das Leid misshandelter Kinder schnell beenden zu können. "Das schiere Ausmaß der Daten schreit förmlich nach einer technischen Unterstützung", sagt Andreas Brück.

Hilfe soll es nun in Form einer intelligenten Software geben. Zusammen mit Microsoft Deutschland und Wissenschaftlern der Universität des Saarlandes hat das nordrhein-westfälische Justizministerium bereits im Jahr 2017 ein Forschungsprojekt gestartet – mit dem Ziel, ein lernfähiges, beliebig skalierbares Computersystem zu entwickeln, das verdächtiges Bildmaterial von unverdächtigem unterscheiden kann. Aira, kurz für Artificial Intelligence enabled Rapid Assessment, hat nun die ersten Praxistests bestanden. Mit einer Genauigkeit von 92 Prozent kann das Programm die Dateien in vier Kategorien einteilen: Kinderpornografie, Jugendpornografie (beides strafrechtlich relevant), Erwachsenenpornografie oder Sonstiges. Auf Grundlage dieser Vorauswahl können die Ermittler schnell entscheiden, ob sie sich mit einem Verdächtigen näher beschäftigen, ihn in Untersuchungshaft nehmen müssen – oder eben nicht.

Einer künstlichen Intelligenz (KI) beizubringen, verschiedene Bild- und Videodateien voneinander abzugrenzen und zu klassifizieren, sei dabei rein technisch gesehen nicht die größte Schwierigkeit gewesen, berichtet der Leiter der ZAC NRW, Oberstaatsanwalt Markus Hartmann. Viel herausfordernder war etwas anderes: Kinderpornografie ist das strengste rechtliche Umfeld, das die deutsche Justiz vorsieht. Jeder Umgang damit ist verboten. "Wir konnten nicht sagen: Bitte, liebe KI-Experten von Microsoft, hier sind tausend kinderpornografische Bilder, trainiert uns damit mal eine KI", sagt Hartmann.

Das Material darf zu keinem Zeitpunkt für jemand anderen als die Ermittler zugänglich sein. Entscheidend war daher die Entwicklung eines speziellen Abstraktionsalgorithmus, der die Bilddateien vollständig und irreversibel verfremdet und anonymisiert, sie also unkenntlich macht für das menschliche Auge. Das passiert lokal in den Rechenzentren der Strafverfolgungsbehörden auf sogenannten Edge-Computern, die mit speziellen Grafikkarten arbeiten. Das abstrahierte Beweismaterial kann dann legal von der KI analysiert werden. Sie erkennt auch in den verfremdeten Bildern die entscheidenden Muster. Microsoft nennt dieses Verfahren "weltweit einzigartig". Der nordrhein-westfälische Justizminister Peter Biesenbach spricht davon, dass es "die Arbeit der Staatsanwaltschaft revolutionieren wird".

Die KI erhöht das Ermittlungstempo

Allein im Zusammenhang mit dem Missbrauchskomplex Bergisch Gladbach im Oktober 2019 verfolgten die Behörden gut 30.000 Spuren und stellten Beweismaterial von mehr als 1000 Beschuldigten sicher. Um solche Mengen gerichtssicher in weniger als sechs Monaten auszuwerten, ist eine enorme Rechenpower nötig. Die soll aus einer Cloud kommen, über die jederzeit auf die benötigte Rechenleistung aus großen Computing-Zentren zurückgegriffen werden kann. Insbesondere diese Skalierbarkeit unterscheidet das Aira-Prinzip von Algorithmen, die bereits in anderen Polizeieinheiten zur Bilderkennung genutzt werden. Die können das Material meist nur mit bereits bekannten Fotos abgleichen. Und aufgrund der fehlenden Verfremdung dürfen sie nicht in die Cloud geladen werden. Zudem lernt Aira stetig dazu. Da abschließend immer noch Menschen das Bildmaterial bewerten müssen, macht jedes Feedback der Ermittler und Ermittlerinnen, ob die Kategorisierung korrekt war, die KI treffsicherer.

Letztlich müssen die Beamten also weiterhin die Originalbilder und -videos anschauen. Doch die Vorauswahl der KI reduziert die Arbeit auf das Wesentliche, verringert die Zahl der Polizisten und Staatsanwältinnen enorm, die diesen belastenden Job machen müssen – und erhöht das Ermittlungstempo. Beispiel Bergisch Gladbach: Hier konnte die Polizei bislang 52 missbrauchte Kinder befreien und 443 Tatverdächtige identifizieren. 13 Männer sind inzwischen zu teils langjährigen Haftstrafen verurteilt worden; sechs der Urteile sind bereits rechtskräftig. Sechs Beschuldigte sitzen weiterhin in Untersuchungshaft. Staatsanwalt Andreas Brück glaubt: Wäre die KI damals bereits im Einsatz gewesen, hätte man möglicherweise noch mehr Täter noch schneller dingfest machen können – mit deutlich geringerem Personal- und Ressourceneinsatz.

Und noch einen Vorteil bietet Aira. Sie kann gedruckte oder handschriftliche Texte auf den Bildern erkennen, etwa häufig wiederkehrende Wasserzeichen, mit denen manche Täter ihr Material markieren, um sich als Urheber zu brüsten. Außerdem stellt sie über die Analyse der Metadaten Verbindungen zwischen verschiedenen Fotos her und erfasst Verbreitungswege: Hat der Verdächtige das Bild versendet oder empfangen? Über welche App oder Plattform hat er es verschickt? Für das spätere Strafmaß macht es einen Unterschied, ob der Angeklagte das kinderpornografische Material angeschaut, verbreitet oder gar selbst erstellt hat.

Oberstaatsanwalt Markus Hartmann hofft, dass der Einsatz von künstlicher Intelligenz in der Justiz nicht nur auf die Ermittlungen zur sexualisierten Gewalt gegen Kinder und Jugendliche beschränkt bleibt. "Wir sprechen laufend mit Start-ups oder auch großen Akteuren wie Microsoft, um aktuelle Entwicklungen aus Forschung und Wissenschaft für die Praxis der Strafverfolgung zu erschließen." So sei es künftig etwa denkbar, Hate-Speech im Internet automatisch zu erkennen oder ganze Chatverläufe nach strafbaren Inhalten zu durchforsten.

Doch zunächst muss Aira den Weg vom Forschungsprojekt in die Büros der Ermittler finden. Dieser Weg ist bürokratisch: Das nordrhein-westfälische Justizministerium bereitet derzeit eine europäische Ausschreibung vor. Theoretisch kann sich jedes IT-Unternehmen darauf bewerben, praktisch ist aber eine Vergabe an Microsoft wahrscheinlich. Im besten Fall stünde die KI den NRW-Justizbehörden dann bereits Ende des Jahres zur Verfügung. Das wäre wirklich revolutionär.