Filterblase

Aus Social Media Manager
Zur Navigation springen Zur Suche springen

Definition

Der Begriff der Filterblase (Engl. filter bubble) geht auf den US-amerikanischen Internetaktivisten Eli Pariser und sein 2011 erschienenes Buch „The Filter Bubble: What the Internet is Hiding from You“ zurück (deutscher Titel: „Filterblase: Wie wir im Internet entmündigt werden“). (Friedrich, Greta: Was ist eine Filterblase? 2019, Zugriff 26.02.2021) Filterblasen drücken sich darin aus, dass im Internet „A unique Universe of information for each of us“, also ein einzigartiges Informationsuniversum für jede*n einzelne*n Nutzer*in geschaffen wird. (Geissert, Clemens: Filterblasen und Echokammern im Social Web, 2019, S. 4, Zugriff 26.02.2021) Dieses entsteht durch die algorithmische Personalisierung einer Suchmaschine oder von Feeds auf Social Media Plattformen, so dass Nutzer*innen nur noch selektiv Inhalte angezeigt werden. Um die*den Einzelnen baut sich dann eine Filterblase auf, aus der "unliebsame" Informationen und Meinungen gewissermaßen herausgefiltert werden. Wer in solch einer Filterblase steckt, läuft Gefahr, politisch und gesellschaftlich nicht umfassend informiert zu sein und permanent in seinen bisherigen Ansichten bestätigt zu werden. Einseitige Weltbilder und extremistische Einstellungen können sich so entwickeln bzw. verfestigen. (Geissert, S.4)

Entstehung von Filterblasen

Parisers Annahmen zu Filterblasen fokussierten sich seinerzeit auf Suchmaschinen, die im Internet als Inhalte-Vermittler fungieren. Suchmaschinen wie Google speichern das Such- und Surfverhalten ihrer Nutzer*innen, um ihnen bei künftigen Suchen Inhalte personalisiert vorsortiert und gefiltert anzeigen zu können. Gegenwärtig findet diese Art der Filterung ebenso auf Plattformen im Social Web statt, um Social Software für individuelle Nutzer*innen anzupassen. Algorithmen analysieren Profilangaben und bisheriges Nutzungsverhalten nach Inhalten, die einzelne Nutzer*innen besonders interessieren könnten. Ähnliche Inhalte werden daraufhin verstärkt in ihrem Feed angezeigt. Ausgehend von den aktiven eigenen Entscheidungen der Nutzer*innen, z.B. zum Liken eines Facebook-Posts, dem Merken eines angebotenen Produkts oder dem Abonnieren eines Twitter-Kanals, schließt der Algorithmus weiter darauf, welche Inhalte sie zukünftig verstärkt konsumieren möchten. Auf dem bisherigen Klickverhalten basieren somit nicht nur die Inhalte der Feeds, sondern auch Vorschläge für neue Kanäle zum Abonnieren oder weitere Produkte zum Kauf. Die Filterblase wird um so undurchlässiger, je mehr ähnliche Inhalte angeklickt werden. (Stark, Birgit et al.: Maßlos überschätzt. Ein Überblick über theoretische Annahmen und empirische Befunde zu Filterblasen und Echokammern, 2019, S. 2ff, Zugriff 26.02.2021) Pariser glaubte, dass der Weg in eine Filterblase ein unbewusster Prozess ist. Den Nutzer*innen ist nicht transparent, welche Annahmen die Algorithmen über sie treffen. Möglicherweise ist die Personalisierung von Suchmaschinen, vorgeschlagenen Inhalten und Newsfeeds vielen gar nicht bekannt. (Geissert, S. 10) Die Unternehmen hinter den Plattformen verfolgen mit der Personalisierung eigene Ziele: Nach dem Einloggen sollen die Nutzer*innen möglichst lange auf der Plattform gehalten werden, digitale Nutzungsdaten hinterlassen und Einnahmen über personalisierte Werbung generieren. (Montag, Christian: Filterblasen: Wie wirken sich Filterblasen unter Berücksichtigung von Persönlichkeit auf (politische) Einstellung aus? In: Baldauf, Johannes (Hrsg.): Hassrede und Radikalisierung im Netz. Der OCCI Forschungsbericht. Online Civil Courage Initiative, 2018, S. 33, Zugriff 26.02.2021)

Filterblasen und Echokammer-Effekte

Im Zusammenhang mit Filterblasen steht der so genannte Echokammer-Effekt, der manchmal fälschlich auch synonym für Filterblasen verwendet wird. In Echokammern (Engl. echo chamber) wird Nutzer*innen ihre eigene Meinung als Echo zurückgeworfen. Denn sie sind dort ausschließlich mit Gleichgesinnten zusammen. Personen mit anderen Meinungen verstummen angesichts dieser Übermacht und ziehen sich zurück. (Stark et. al., S. 3) Eine Echokammer ist somit ein „metaphorischer Raum, in dem Aussagen verstärkt und Störgeräusche, etwa anders lautende Meinungen, geschluckt werden“. (Haim, Mario: Echokammer, Zugriff 26.02.2021) Im Unterschied zur Filterblase werden die eigenen Ansichten in der Echokammer nicht durch technische Gegebenheiten, sondern im direkten Austausch mit anderen bestärkt. (Stangl, Werner: Stichwort: Echokammer-Effekt, Zugriff 26.02.2021)

Echokammern und Filterblasen im Social Web bedingen sich in der Praxis gegenseitig, wenn, wie zum Beispiel beim Instagram-Algorithmus, für die Personalisierung von Social Software zusätzlich Daten aus dem Netzwerk der Nutzer*innen verwendet werden. Solchen sozialen Filtern liegt die Annahme zu Grunde, dass sich Menschen auch online mit Menschen vernetzen, die ihre Interessen und Vorlieben teilen (Homophilie). (Stark et. al., S. 2ff) Tauchen in den sozial gefilterten Newsfeeds miteinander vernetzter Nutzer*innen vorwiegend ähnliche Inhalte auf, können digitale Echokammern entstehen. (Geissert, S. 6) Echokammern sind im Gegensatz zu Filterblasen nicht nur ein Phänomen des Internetzeitalters - sie existieren ebenfalls in der analogen Welt. Mit dem Social Web entstanden aber ganz neue Möglichkeiten, um über weite räumliche Distanzen hinweg mit Gleichgesinnten ins Gespräch zu kommen. (Montag, S. 31)

Gefahren von Filterblasen und Echokammern

Immer wieder werden Befürchtungen laut, dass Filterblasen und Echokammern zum Tummelplatz von Extremist*innen und Verschwörungstheoretiker*innen werden. Solche Nutzer*innen fühlten sich in der Filterblase einerseits durch die Informationen bestätigt, die sie über das Internet erreichen. Andererseits könnten sie in Echokammern fälschlicherweise den Eindruck gewinnen, dass die Mehrheit der Gesellschaft ihrer Meinung ist. (Stark et. al., S. 4f) Diese Sorge steht auch im Zusammenhang mit Erkenntnissen darüber, dass sich Fake News über Soziale Medien deutlich schneller verbreiten als reale Nachrichten. (Montag, S. 36)

Abgesehen vom möglichen Erstarken des politischen oder religiösen Extremismus wird vor weiteren Fallstricken für die Demokratie und das gesellschaftliche Miteinander gewarnt, falls Filterblasen und Echokammern für die Meinungsbildung vieler Menschen relevant werden. Unterschiedliche Gruppen könnten sich dann in ihren Wahrnehmungen und Einstellungen immer weiter voneinander entfernen. Mit zunehmender Polarisierung drohe die gesellschaftliche Spaltung in unversöhnliche Lager, die nicht mehr zu einem demokratischen Kompromiss fähig sind. (Stark et. al., S. 4f)

Verbreitung und Bedeutung von Filterblasen und Echokammern

Aktuelle Studien bescheinigen Filterblasen und Echokammern eine deutlich geringere Verbreitung und Bedeutung, als ursprünglich angenommen. Für Suchmaschinen wie Google zeigten Simulationsuntersuchungen mit vorher trainierten „Testaccounts“ mehrheitlich kaum Filterblaseneffekte. Wissenschaftler*innen werteten dafür beispielsweise die Daten aus, die Nutzer*innen über ihre Suchen und Suchergebnisse via Plug-in im Browser im Rahmen des Datenspendeprojektes vor der Bundestagswahl 2017 übermittelt hatten. Dabei fanden sie kaum Unterschiede bei den Suchergebnissen unterschiedlicher Personen, die mit den gleichen Begriffen nach Nachrichten oder Informationen zu prominenten Politiker*innen suchten. Sie schlussfolgerten, dass eher andere Faktoren entscheidend für das Ranking einer Internetseite in Suchmaschinen sind, wie etwa der Grad der Suchmaschinenoptimierung. (Stark et. al., S. 5f) Auch wird davon ausgegangen, dass die Vernetzung vieler Nutzer*innen des Social Web viel weitreichender als in der analogen Welt und durch eher lose Verbindungen (so genannte weak ties) geprägt ist. Solche oberflächlichen Beziehungen setzen weniger Übereinstimmung voraus, so dass die Wahrscheinlichkeit steigt, im eigenen Netzwerk Personen mit ganz unterschiedlichen gesellschaftspolitischen Einstellungen zu haben. Damit sind Menschen im Social Web potentiell sogar einer größeren Meinungsvielfalt ausgesetzt als in der analogen Welt. (Geissert, S. 16)

Zunehmend in den Fokus der Diskussion um Filterblasen und einseitige Informationen aus dem Social Web ist die Eigenverantwortung der Nutzer*innen gerückt. Sie entscheiden nichtzuletzt selbst, welche Inhalte sie auf Plattformen im Social Web aktiv anklicken und teilen. Eine Untersuchung von Facebooknutzer*innen in den USA bestätigte, dass diese aktive Auswahl eher auf die Inhalte im Newsfeed fällt, die dem eigenen Weltbild entsprechen. Abgeglichen wurde dafür das Klickverhalten mit den Angaben zu der politischen Einstellung (liberal oder konservativ) im Profil. Ein vergleichbares Verhalten war bisher übrigens auch in der analogen Welt möglich, da einzelne Zeitungen und Fernsehsender häufig für bestimmte politische Grundrichtungen stehen. (Stark et. al., S. 7)

Doch obwohl Filterblasen im Social Web nach aktuellem Forschungsstand nicht zu einem neuartigen Phänomen an gesamtgesellschaftlicher Desinformation führen - seitens der Forschenden wird immer wieder betont, dass es für eine generelle Entwarnung zu früh ist. Emotionalisierende und extreme Inhalte erreichen im Social Web deutlich mehr Reaktionen. Das katapultiert sie in den News Feeds nach oben. (Stark et. al., S. 10f) Bei der Radikalisierung von Personen, die bereits mit extremistischen Einstellungen ins Social Web gekommen sind oder zumindest offen für solche Inhalte sind, können Filterblasen und Echokammern also tatsächlich eine Rolle spielen. Es gibt bereits Angebote, die Filterblasen- und Echokammereffekten bewusst entgegenwirken sollen: Über die Plattform "Diskutier mit mir" können sich Nutzer*innen annonym mit Menschen verbinden, die eine andere Meinung haben und ins Gespräch kommen. (diskutiermitmir.de, Zugriff 26.02.2021)