Gastkommentar

Die Gedanken sind frei, oder doch nicht? – Wenn künstliche Intelligenz das Hirn lesen kann

Bis vor kurzem ist das, was im menschlichen Hirn beim Denken und Fühlen passiert, undurchsichtig geblieben. Nun wird die Black Box unseres Bewusstseins allmählich durch Verarbeitung digitaler Scans gesprengt. Worauf müssen wir uns gefasst machen, wenn wir lesen können, was genau im Kopf vor sich geht?

Simon Eickhoff und Thomas Lange
Drucken
Kann man den Leuten schon bald in den Kopf schauen? (Bild: NZZ-Fotografen)

Kann man den Leuten schon bald in den Kopf schauen? (Bild: NZZ-Fotografen)

«Man kann den Leuten lediglich vor den Kopf schauen». Diese Gewissheit könnte bald der Vergangenheit angehören – und letztlich unser Verständnis von Individualität infrage stellen. Hintergrund dieser Entwicklung sind neue Anwendungen künstlicher Intelligenz zur Analyse von Hirnscans: Sie könnten es in absehbarer Zukunft erlauben, zuverlässige Rückschlüsse auf individuelle Eigenschaften, Fähigkeiten und Neigungen einer Person zu ziehen.

In vielen Lebenssituationen müssen wir Entscheidungen treffen, die auf einer subjektiven Einschätzung anderer Personen beruhen. Ist eine Bewerberin für eine Arbeitsstelle wirklich so «offen für Neues, flexibel und anpassungsfähig», wie sie im Lebenslauf angibt? Sind die Schmerzen eines Patienten, für die es keinen fassbaren medizinischen Befund gibt, wirklich so stark, dass er in Frührente gehen muss? Hat sich ein Straftäter in Haft so weit geändert, dass keine Gefahr mehr von ihm ausgeht?

Bilder von Hirnscans

Das Grundmuster all dieser Situationen ist gleich: Gegenstand unserer Entscheidung ist letztlich eine uns nicht direkt zugängliche «innere» Verfasstheit einer Person. Erschwerend kommt hinzu, dass die Betroffenen in den genannten Situationen ein grosses Interesse an einer für sie positiven Entscheidung haben – und entsprechend sozial erwünschte und subjektiv erfolgversprechende Antworten in Befragungen geben würden. Die Bewerberin möchte schliesslich eingestellt werden, der Patient eine Anerkennung seiner Beschwerden und der Straftäter seine Entlassung erreichen.

Es herrscht eine erhebliche Diskrepanz zwischen technischer und praktischer Machbarkeit.

Grundsätzlich stehen uns bis jetzt zwei Methoden zur Überwindung dieses Dilemmas zur Verfügung. Erstens das nachfragende Gespräch, in dem die Behauptungen auf ihre interne Konsistenz geprüft werden. Wir kennen die Methode aus dem Sonntagskrimi: Verstrickt der Beschuldigte sich in Widersprüche? Zweitens können wir das berichtete und das beobachtete Verhalten abgleichen und auf Widersprüche prüfen: Der vermeintlich so flexible Bewerber hat mehrfach einen Wechsel in andere Abteilungen abgelehnt. Der Schmerzpatient berichtet begeistert von seinen sportlichen Hobbys. Der vermeintlich erfolgreich therapierte Straftäter fällt im Gefängnis wiederholt durch aggressives Verhalten auf.

Alle diese Ansätze liefern jedoch nur indirekte Hinweise auf das Innere eines Menschen. Sie können nie wirklich objektiv sein, da verschiedene Untersucher aufgrund ihrer Erfahrung, Ausbildung und Überzeugung zu unterschiedlichen Ergebnissen kommen können. Langjährige Gutachterstreitigkeiten zeugen von dieser Problematik.

Was wäre aber, wenn wir die gesuchten Eigenschaften, Fähigkeiten, Wesenszüge und Beschwerden direkt und objektiv messen könnten? Was wäre, wenn wir die Entscheidungen über Einstellungen, Diagnosen oder Haftentlassungen allein auf Basis der individuellen Neurobiologie treffen könnten, das heisst der Struktur und Funktionsweise des Gehirns der betroffenen Personen?

Forschungsarbeiten zeigen, dass es grundsätzlich möglich ist, aus Bildgebungsdaten – genauer gesagt: Bildern von Hirnscans – mittels künstlicher Intelligenz Aussagen über individuelle Eigenschaften wie Persönlichkeitszüge (z. B. Offenheit, Gewissenhaftigkeit, emotionale Labilität) und kognitive Fähigkeiten (z. B. Aufmerksamkeit, Arbeitsgedächtnis, Multitasking-Fähigkeiten) vorherzusagen.

Stichwort: maschinelles Lernen

Wie laufen solche Verfahren ab? Den Ausgangspunkt stellen zunächst Hirnscans einer grossen Anzahl von Personen dar, für die auch die vorherzusagende Eigenschaft bekannt ist – also zum Beispiel Scans von Straftätern. Die Scans stammen aus herkömmlichen Magnetresonanztomografen (MRT) und können ohne aktive Beteiligung der Probanden erhoben werden. Aus den Daten werden zunächst Merkmale extrahiert, welche die komplexen Persönlichkeitsprofile mathematisch beschreiben. Die Regeln, die die Beziehung zwischen diesen Merkmalen und der Zielvariable beschreiben, also zum Beispiel der Gewaltbereitschaft einer Person, werden dann von selbstlernenden Verfahren identifiziert.

Das Stichwort lautet: maschinelles Lernen. Entscheidend ist dann im nächsten Schritt die Überprüfung des Algorithmus an anderen, dem Programm bisher unbekannten Fällen. Die Frage ist, ob die vom Algorithmus gefundenen Regeln verallgemeinert und somit die entsprechende Zielvariable auch bei neuen Personen korrekt vorhergesagt werden kann. Im Abgleich mit diesen Erkenntnissen lassen sich dann letztlich auf Basis eines einzelnen Hirnscans einer Zielperson individuelle Aussagen über ihre individuellen Eigenschaften treffen.

Eine zunehmende Anzahl wissenschaftlicher Arbeiten belegt: Wir können Menschen tatsächlich auf diese Weise «in den Kopf schauen», also objektive Aussagen über ihre individuellen Merkmale treffen, ohne dabei auf ihre Kooperation zum Beispiel in einer Befragung angewiesen zu sein.

Wie sind diese Errungenschaften der Neurowissenschafter zu beurteilen? Haben sie die Grundlage für eine objektivere und «fairere» Beurteilung von Bewerbern, Patienten oder Straftätern geschaffen – und damit für eine gerechtere Gesellschaft? Oder haben sie die Büchse der Pandora geöffnet und den Weg in eine Orwellsche Zukunft geebnet? Noch ist diese Frage nicht entschieden. Sie hängt entscheidend davon ab, wie wir als Gesellschaft auf die neuen Entwicklungen reagieren. Drei Aspekte scheinen besonders wichtig:

Eine frühzeitige Debatte tut not

Erstens: So beeindruckend die jüngsten Forschungsergebnisse sind, so erklären sie doch nur etwa die Hälfte der Varianz in den vorhergesagten Zielvariablen. Ist das genug, um belastbare Entscheidungen zu treffen, die für die Betroffenen teilweise gravierende Folgen haben können? Andererseits: Auch Personaler oder menschliche Gutachter irren – vielleicht sogar häufiger, als uns lieb ist. Warum tendieren wir also dazu, höhere Massstäbe an eine künstliche Intelligenz anzulegen als an den Menschen? Eine Antwort darauf dürfte lauten, dass sich Algorithmen – anders als menschliche Gutachter – nicht «erklären» können.

Ähnlich wie im Kontext des autonomen Fahrens stellt sich also auch in unserem Fall die Frage, wie viel zuverlässiger ein Algorithmus im Vergleich zu einem Menschen entscheiden muss, um gesellschaftlich akzeptiert zu werden. Eine verwandte Fragestellung lautet: Inwieweit verschieben sich angesichts der neuen Instrumente, die uns potenziell zur Verfügung stehen, die Grenzen der Verantwortlichkeit für Fehleinschätzungen beziehungsweise Fehlentscheidungen? Und zwar sowohl in den Fällen, in denen der menschliche Entscheider den Empfehlungen des Systems gefolgt ist, als auch jenen, in denen er sich gegen die Empfehlung des Systems entschieden oder das System erst gar nicht zurate gezogen hat.

Zweitens: Es herrscht eine erhebliche Diskrepanz zwischen technischer und praktischer Machbarkeit. Die technische Seite der Vorhersage einer neuen Zielvariable ist trivial, wenn einmal eine gute Modellarchitektur identifiziert wurde. Der Aufwand aber, Daten von Hunderten oder Tausenden von Menschen zu erheben und diese über Monate oder Jahre hinweg nachzuverfolgen, ist hingegen gewaltig. Mit hoher Wahrscheinlichkeit werden hauptsächlich Akteure mit kommerziellen Interessen die notwendigen Ressourcen dafür einsetzen können. Entsprechende Interessenkonflikte sind vorprogrammiert: Sollte etwa eine Versicherung oder ein Klinikkonzern existierende MRT-Bilder und Krankenakten zusammenführen, um künftige schwere Erkrankungen vorherzusagen? Solange es um die Verbesserung von Präventionsangeboten und Vorsorgeuntersuchungen geht – und genau damit befasst sich die Forschung derzeit schwerpunktmässig –, dürften sich die Verfahren vermutlich hoher Akzeptanz erfreuen. Was aber, wenn dieselben Daten genutzt werden, um Risikopatienten aus Versicherungen zu drängen?

Drittens: Wir dürfen die Tragweite eines Phänomens nichts unterschätzen, das man als Proliferation des Vorhersageraums bezeichnen könnte. Ähnlich wie ein Gentest berührt die Vorhersage individueller Eigenschaften auf Basis von MRT-Bildern einen höchstpersönlichen Lebensbereich. Und ähnlich wie bei der Genetik ist der zukünftige Wert einmal erhobener Daten aus heutiger Sicht kaum zu ermessen. Auf Basis eines alten MRT-Scans etwa, der aus ganz anderen Gründen einmal gemacht wurde, könnten sich in Zukunft vielleicht Dinge vorhersagen lassen, an die der Betroffene nie zuvor gedacht hat. Schon heute teilen viele Menschen sehr persönliche Daten mit privaten Unternehmen – einschliesslich ihres genetischen Materials. Ein Beispiel ist das amerikanische Biotech-Unternehmen 23andme, das DNA-Analysen verkauft. Es ist nicht auszuschliessen, dass sich aus dieser Dynamik heraus ein florierender Zweitmarkt für prädiktives Material entwickelt. Wäre das juristisch und ethisch vertretbar – und wenn ja, unter welchen Bedingungen? Wer sollte letztlich über solche Fragen entscheiden, und welche Prüf- und Sanktionsmechanismen gibt es?

Wir brauchen frühzeitig eine gesellschaftliche Debatte darüber, welche Regeln des Zusammenlebens wir uns in einer Welt geben wollen, in der die Gedanken möglicherweise nicht mehr frei sind.

Simon Eickhoff leitet das Institut für Systemische Neurowissenschaften an der Heinrich-Heine-Universität Düsseldorf und das Institut Brain and Behaviour des Forschungszentrums Jülich. Thomas Lange leitet den Bereich Volkswirtschaft, Bildung und Arbeit bei acatech – Deutsche Akademie der Technikwissenschaften.