Wir kennen es alle. Man unterhält sich mit seinen Bekannten und plötzlich kommt eine Frage auf, die niemand beantworten kann. Warum ist der Himmel blau? Wie hoch ist der Eifelturm? Oder: Warum haben Katzen Angst vor Gurken? Ohne groß zu zögern wird die Suchmaschine Google gefragt. War es früher eher weniger verbreitet, so weiß man heute, dass Google es sich als Ziel gesetzt hat, den Nutzenden genau die Informationen zu liefern, die sie haben möchten. Die Suchergebnisse werden folglich dem/der Anwender/in entsprechend personalisiert. Oder doch nicht?

Die sogenannten Filterblasen sind ein heiß diskutiertes Thema im Zeitalter der sozialen Medien. Diese beschreiben personalisierte Räume und entstehen durch technische Eigenschaften bzw. Algorithmen, sodass Menschen überwiegend mit Informationen konfrontiert werden, die ihren Vorlieben, Interessen und Meinungen entsprechen („Ein Blick auf die Mythen um Echokammern und Filterblasen“).  Die Bedenken zu personalisierten Medien gab es schon vor dem Aufkommen des Begriffs Filterblase (Sunstein, 2001). Als Eli Pariser  2011 aber den Ausdruck  in seinem Buch „The Filter Bubble: What the Internet Is Hiding from You“ prägte und veröffentlichte, löste er eine Debatte darüber aus, ob Nutzende durch personalisierte Ergebnisse Informationen nicht ausgewogen konsumieren (können) und damit ein verzerrtes Weltbild vermittelt bekommen. In einem Selbstexperiment ließ er zwei Freunde das Stichwort „BP“ in die Google-Suchleiste eingeben. Während der eine Suchergebnisse erhielt, die auf eine Naturzerstörung hinwiesen, erhielt der andere Investmenttipps für die Ölbranche. Seine Schlussfolgerung: Algorithmen zeigen uns das, wovon sie ausgehen, dass wir es sehen wollen. Die Nutzung von Plattformen und damit von solchen Algorithmen mit personalisierten Ergebnissen spaltet die Gesellschaft in Untergruppen, die nur bestimmte Informationen bekommen (Pariser, 2011; Thiel, 2012). So die Annahme.

Liefern Algorithmen insoweit personalisierte Ergebnisse, dass Nutzende in eine Filterblase eingehüllt werden? Der Frage geht das Crowdsourcing-Projekt #Datenspende auf den Grund. Beteiligt sind die TU Kaiserslautern, AlgorithmWatch sowie sechs Landesmedienanstalten. Die Forschungsgruppe fokussierte sich dabei auf den Google-Algorithmus, da Suchmaschinen zentral bei der Informationssuche sind. Wie der Algorithmus funktioniert ist ein gut behütetes Geheimnis. Daher sammelte das Team im Rahmen der Bundestagswahl 2017 in Deutschland fünf Wochen über Suchergebnisdaten von knapp 4.400 SpenderInnen. Dazu installierten diese eine Erweiterung für ihren Browser, sodass die ForscherInnen bis zu sechs Mal am Tag eine Suchanfrage über den Computer der SpenderInnen an Google und Google News schicken konnten. Untersucht wurden die Ergebnisse zu ausgewählten Politikern, Politikerinnen und Parteikürzeln.  Die Anfragen wurden mit den Browsereinstellungen des jeweiligen Spenders vorgenommen. Weitere übermittelte Daten waren die ungefähren Standorte, die Uhrzeit der Anfrage und ob der/die NutzerIn bei Google angemeldet war. Private Suchanfragen oder Personendaten wurden nicht gespeichert (Datenspende: BTW17, 2017).

Im Durchschnitt kamen Nutzende auf sieben bis acht gleiche Suchtreffer von neun Ergebnissen bei einer Suche nach Politikern. Bei einer Suche nach einer Partei waren es im Schnitt fünf bis sechs gleiche Ergebnisse. Die sich unterscheidenden Treffer waren meist regional interessante Ergebnisse. Ob der Spender eingeloggt war, beeinflusste die Ergebnisse größtenteils nicht. Doch fanden die Analytiker auch kleine Cluster, die völlig verschiedene Treffer als die anderen Suchergebnislisten aufwiesen. Auffällige Muster konnten innerhalb dieser Cluster bisher nicht gefunden werden. Das Forschungsteam schlussfolgert aus den Befunden, dass der Google-Algorithmus wenig Raum für Personalisierung zulässt und somit die These zur algorithmisch erzeugten Filterblase vorläufig nicht unbedingt stützt (Zweig, 2017a, 2017b).

Ob fünf bis acht gleiche Ergebnisse von neun Treffern nun beruhigend sind, bleibt wohl jedem selbst überlassen. Die Befunde sollten in jedem Fall nicht als abschließende Belege „für“ oder „gegen“ eine Filterblase gedeutet werden. Sie geben lediglich Anhaltspunkte. Eines kann aber mit Gewissheit gesagt werden: der Eifelturm ist mit Antenne 324 Meter hoch.

 

Literatur

Datenspende:BTW17. (2017). Abgerufen am 05. April 2018, von AlgorithmWatch https://datenspende.algorithmwatch.org/

Pariser, E. (2011). The Filter Bubble: What the Internet Is Hiding from You. New York: Penguin Press.

Sunstein, C. R. (2001). Republic.com. Princeton: Princeton University Press.

Thiel, T. (07.03.2012). Im Netz wartet schon der übermächtige Doppelgänger. Frankfurter Allgemeine. Abgerufen am 05. April 2018, von http://www.faz.net/aktuell/feuilleton/buecher/rezensionen/sachbuch/eli-pariser-filter-bubble-im-netz-wartet-schon-der-uebermaechtige-doppelgaenger-11675351.html

Zweig, K. A. (2017a). Personalisierung bei der Google-Suche geringer als gedacht – hauptsächlich regionale Effekte. AlgorithmWatch. Abgerufen am 05. April 2018, von https://algorithmwatch.org/de/bei-der-google-suche-personalisierung-geringer-als-gedacht-hauptsaechlich-regionale-effekte/

Zweig, K. A. (2017b). Filterblase geplatzt? Kaum Raum für Personalisierung bei Google-Suchen zur Bundestagswahl 2017. AlgorithmWatch. Abgerufen am 05. April 2018, von https://algorithmwatch.org/de/filterblase-geplatzt-kaum-raum-fuer-personalisierung-bei-google-suchen-zur-bundestagswahl-2017/

 

#NoFilter: Führt der Google-Algorithmus nun zur Filterblase? Befunde vom Projekt #Datenspende