GI-Radar 196: Erkenntnisse zu/durch Google

 

Sehr geehrte Leserinnen und Leser,

viele Nutzer wollen die Suchmaschine Google nicht mehr missen. Die Auswahl der Ergebnisse ist ein Politikum; nimmt sie doch erheblichen Einfluss darauf, welche Inhalte und Gedanken Aufmerksamkeit bekommen und welche nicht (Stichwort Algorithmentransparenz; eines unserer Themen im Fokus). Dass sich aus den Suchanfragen intime Informationen gewinnen lassen, liegt auf der Hand – und genau deswegen ist die Analyse dieser Daten für Sozialwissenschaftler hochinteressant, wie Sie im Fundstück nachlesen können.

Viel Spaß bei der Lektüre!

auf gi-radar.de weiterlesen

Adblocker weiterhin legal + Kollege Cobot + Kein Internet für Rechte + Calliope Mini + Informatik-Spektrum zur Wahl + Irren ist menschlich? + Anstehende GI-Wahl + SKILL in Chemnitz + Datenspende + Google kennt die Wahrheit

KURZMITTEILUNGEN

Adblocker sind vorerst legal (ZEIT). Das OLG München hält Adblocker für legal, aber der Streit geht voraussichtlich weiter.  weiterlesen

Cobot – der neue Kollege (FAZ). Nach dem Roboter in der Fertigung wird der Roboter als Kollege erprobt. Unter anderem stellt sich nun die Frage: mit wem redet der Cobot eher: dem Kollegen oder dem Vorgesetzten?  weiterlesen

Kein Internet für Rechte, keine Betten für Nazis (Netzpolitik). Immer mehr Unternehmen distanzieren sich von rechtem Gedankengut. Manche verweigern Rechten und Nazis sogar ihre Dienste.  weiterlesen

Calliope Mini. Bisher gab es den Minirechner für Schüler ab der 3. Klasse nur für Unterstützer des Crowdfundings. Nun ist er im freien Handel ab 35 Euro erhältlich.  weiterlesen

THEMEN IM FOKUS

Informatik-Spektrum zur Bundestagswahl. Immer noch ist nicht vollständig klar, wie sehr Algorithmen in sozialen Netzen und Suchmaschinen die Auswahl der Kandidaten und die Wahl des amerikanischen Präsidenten in den USA beeinflusst haben. Fake News, Filterblasen und Radikalisierung im Internet sind inzwischen in aller Munde. Daher haben wir uns entschlossen, ein besonderes Heft des Informatik-Spektrums herauszugeben, das sich an die breite Öffentlichkeit richtet und bis zur Bundestagswahl frei und kostenlos heruntergeladen werden kann (Springer).

In diesem GI-Radar wollen wir einige Beiträge aus dem Heft vorstellen, die auf kompakte Weise verschiedene Teilaspekte der Diskussion aufgreifen.

Wie funktionieren eigentlich algorithmische Mechanismen der Meinungsbildung? Wie organisiert sich ein Empfehlungssystem, was ist eine Filterblase, eine Echokammer? Hier gibt es eine Einführung in das Thema (Springer).

Microtargeting, also das gezielte Abstimmen politischer Botschaften auf Individuen, hat in den USA die Wahlen entscheidend beeinflusst. Kann diese Technik auch in Deutschland dieselbe Wirkung entfalten (Springer)?

Wie sehr unterscheidet sich Deutschland von den USA in seiner Mediennutzung?  Uns hat die Untersuchung des Hans-Bredow Instituts etwas beruhigt, zeigt sie doch, dass es in Deutschland noch eine erstaunlich „traditionelle“ Form der Mediennutzung gibt (Springer).

Was können wir als Informatikerinnen und Informatiker eigentlich tun in dieser Situation? Ein Artikel von Nicholas Diakopoulos zur Rechenschaftspflicht für algorithmische Entscheidungen analysiert, wer für die Ergebnisse dieser Systeme verantwortlich ist bzw. sein sollte (Springer).

Irren ist menschlich? Wir Menschen irren uns. Ziemlich oft sogar. Darum hoffen wir auf die künstliche Intelligenz, die ein umfassenderes Wissen und besseres Gedächtnis, objektivere Entscheidungskriterien und eine höhere Verarbeitungsgeschwindigkeit aufweist. Während bisher Computer eher als dumme Werkzeuge genutzt werden, besteht weiterhin die Hoffnung, dass sie eines Tages gerade schwierige und schwerwiegende Entscheidungen übernehmen können. Vorher müssen sie aber noch einiges von uns lernen: Mitgefühl, Ethik, Verantwortung.

„Menschliches Versagen“ als Unfallursache fällt dann weg. Aber was ist mit dem technischen Versagen? Bauen wir beim Versuch, künstlicher Intelligenz menschliche Fähigkeiten beizubringen, nicht auch die Möglichkeit allzu menschlichen Versagens mit ein?

Laut Turing-Test gilt eine künstliche Intelligenz als menschlich, wenn ein Mensch sie im längeren Gespräch nicht als Computer erkennt. Viele Science Fiction Filme enthalten darum „mündliche Prüfungen“. Samantha im Film „Her“ hat den Test offensichtlich bestanden, denn Menschen verlieben sich in sie. Leider kann sie nicht treu sein.

Auch künstliche Intelligenzen können die Welt falsch wahrnehmen oder verstehen – versehentlich oder durch Hacker herbeigeführt – oder ihre Entscheidungen auf interne Darstellungen der Welt aufbauen, die nicht vollständig der Realität entsprechen (ZEIT). So gab es schon den ersten Todesfall dadurch, dass ein selbstfahrendes Auto einen LKW übersah (Welt). Insbesondere bei selbstlernenden Systemen lässt sich bislang nicht steuern, was sie denken (Spektrum). Wie kürzlich der Facebook-Chatbot Tay zeigte, können künstliche Intelligenzen auch Falsches und Unethisches lernen, beispielsweise Verschwörungstheorien und Rassismus (ZEIT). Manche Denker gehen sogar noch weiter: Wenn Computer irgendwann eine Persönlichkeit haben, könnten sie auch psychische Störungen entwickeln (cs.wcupa.edu, engl.). Dann aber sind sie nicht mehr die objektiven, sachlichen Entscheider, denen wir mehr Macht anvertrauen sollten als einem Menschen. Auch wenn unser Gehirn Fakten vergisst oder falsch interpretiert, Komplexität unnötig vereinfacht und unter emotionaler Subjektivität leidet, sind wir immerhin noch bessere Generalisten als eine künstliche Intelligenz.

Die Frage lautet also: Wollen und können wir zukünftig der Technik ihre menschlichen Fehler verzeihen? Oder machen wir die Fehler lieber selbst?

GI-MELDUNGEN

GI-Vorstand und Präsidium: die Kandidatinnen und Kandidaten. Etwa ab Mitte Oktober können Sie einen neuen Vorstand und drei neue Präsidiumsmitglieder wählen. Sie sind neugierig, wer kandidiert? Die Profile der Kandidaten sind schon jetzt abrufbar.  weiterlesen

SKILL: Studierende auf der INFORMATIK 2017. Das Studierendenprogramm für Chemnitz steht. An zwei Tagen gibt es Vorträge, unter anderem zu Verschlüsselung, Energiewirtschaft und Algorithmen.  weiterlesen

Algorithmentransparenz: Gehen Sie Daten spenden! Unterscheiden sich Google-Suchergebnisse zu politischen Themen bei verschiedenen Nutzern? Über 4000 Personen haben bereits an einer Studie teilgenommen, die diese Fragestellung klären will. Durchgeführt wird die Studie von Algorithmwatch, an der u.a. GI-Junior-Fellow Katharina Zweig beteiligt ist.  weiterlesen

Kennen Sie den GI-Bewegungsmelder? Haben Sie kürzlich eine neue Aufgabe übernommen? Dann melden Sie sich bei uns!

FUNDSTÜCK

Google kennt die Wahrheit. Der Forscher Seth Stephens-Davidowitz gehört zu den wenigen Menschen, die Zugriff auf einen ganz besonderen Datensatz haben: Die anonymisierten Suchanfragen, die Millionen von Menschen an die Suchmaschine Google gerichtet haben. In unserem Fundstück berichtet er von überraschenden Ergebnissen, die einen besonders ungetrübten Blick in die Seele dieser Menschen erlauben.  Zum Artikel (Guardian, engl., ca. 29 min)

Welches Fundstück hat Sie zuletzt inspiriert? Senden Sie uns Ihre Vorschläge!

 

Dies war Ausgabe 196 des GI-Radars. Das Fundstück dieser Ausgabe wird für uns zu einem echten Zeitfresser: Wir könnten noch stundenlang Suchbegriffe in Google eingeben und über die Vorschläge zur Vervollständigung schmunzeln (vergleichen Sie z.B. einmal die Vervollständigung von „Informatik ist …“ mit der von „computer science is …“). Die Inhalte für diese Ausgabe haben GI-Junior-Fellow Dominik Herrmann, GI-Präsidiumsmitglied Andrea Herrmann, GI-Geschäftsführerin Cornelia Winter und Oliver Deussen (Mitherausgeber der Sonderausgabe des Informatik-Spektrums) zusammengestellt. Das nächste GI-Radar erscheint am 8. September 2017.

Im GI-Radar berichten wir alle zwei Wochen über ausgewählte Informatik-Themen. Wir sind sehr an Ihrer Meinung interessiert. Für Anregungen und Kritik haben wir ein offenes Ohr, entweder per E-Mail (redaktion@gi-radar.de) oder über das Feedback-Formular bei SurveyMonkey. Links und Texte können Sie uns auch über Twitter (@informatikradar) oder Facebook zukommen lassen.