Filterblase: Unterschied zwischen den Versionen

Aus Social Media Manager
Zur Navigation springen Zur Suche springen
 
(12 dazwischenliegende Versionen desselben Benutzers werden nicht angezeigt)
Zeile 1: Zeile 1:
==Definition==
=Definition=
Der Begriff der Filterblase (Engl. filter bubble) geht auf den US-amerikanischen Internetaktivisten Eli Pariser und sein 2011 erschienenes Buch „The Filter Bubble: What the Internet is Hiding from You“ zurück (deutscher Titel: „Filterblase: Wie wir im Internet entmündigt werden“). [https://mads.de/was-ist-eine-filterblase (Friedrich, Greta: Was ist eine Filterblase? 2019, Zugriff 26.02.2021)] Filterblasen drücken sich darin aus, dass im Internet ''„A unique Universe of information for each of us“'', also ein einzigartiges Informationsuniversum für jede*n einzelne*n Nutzer*in geschaffen wird. [http://www.informatik.uni-leipzig.de/~graebe/Texte/Geissert-19.pdf (Geissert, Clemens: Filterblasen und Echokammern im Social Web, 2019, S. 4, Zugriff 26.02.2021)] Dieses entsteht durch die algorithmische Personalisierung einer [[Suchmaschine]] oder von Feeds auf Social Media Plattformen, so dass Nutzer*innen nur noch selektiv Inhalte angezeigt werden. Um die*den Einzelnen baut sich dann eine Filterblase auf, aus der "unliebsame" Informationen und Meinungen gewissermaßen herausgefiltert werden. Wer in solch einer Filterblase steckt, läuft Gefahr, politisch und gesellschaftlich nicht umfassend informiert zu sein und permanent in seinen bisherigen Ansichten bestätigt zu werden. Einseitige Weltbilder und extremistische Einstellungen können sich so entwickeln bzw. verfestigen. [http://www.informatik.uni-leipzig.de/~graebe/Texte/Geissert-19.pdf (Geissert, S.4)] 
==Entstehung von Filterblasen==
Parisers Annahmen zu Filterblasen fokussierten sich seinerzeit auf Suchmaschinen, die im Internet als Inhalte-Vermittler fungieren. Suchmaschinen wie Google speichern das Such- und Surfverhalten ihrer Nutzer*innen, um ihnen bei künftigen Suchen Inhalte personalisiert vorsortiert und gefiltert anzeigen zu können. Gegenwärtig findet diese Art der Filterung ebenso auf Plattformen im Social Web statt, um Social Software für individuelle Nutzer*innen anzupassen. Algorithmen analysieren Profilangaben und bisheriges Nutzungsverhalten nach Inhalten, die einzelne Nutzer*innen besonders interessieren könnten. Ähnliche Inhalte werden daraufhin verstärkt in ihrem Feed angezeigt. Ausgehend von den aktiven eigenen Entscheidungen der Nutzer*innen, z.B. zum Liken eines [[Facebook]]-Posts, dem Merken eines angebotenen Produkts oder dem Abonnieren eines [[Twitter]]-Kanals, schließt der Algorithmus weiter darauf, welche Inhalte sie zukünftig verstärkt konsumieren möchten. Auf dem bisherigen Klickverhalten basieren somit nicht nur die Inhalte der Feeds, sondern auch Vorschläge für neue Kanäle zum Abonnieren oder weitere Produkte zum Kauf. Die Filterblase wird um so undurchlässiger, je mehr ähnliche Inhalte angeklickt werden. [http://www.researchgate.net/profile/Melanie-Magin/publication/337316528_Masslos_uberschatzt_Ein_Uberblick_uber_theoretische_Annahmen_und_empirische_Befunde_zu_Filterblasen_und_Echokammern/links/5dd16faa4585156b351bb30a/Masslos-ueberschaetzt-Ein-Ueberblick-ueber-theoretische-Annahmen-und-empirische-Befunde-zu-Filterblasen-und-Echokammern.pdf (Stark, Birgit et al.: Maßlos überschätzt. Ein Überblick über theoretische Annahmen und empirische Befunde zu Filterblasen und Echokammern, 2019, S. 2ff, Zugriff 26.02.2021)] Pariser glaubte, dass der Weg in eine Filterblase ein unbewusster Prozess ist. Den Nutzer*innen ist nicht transparent, welche Annahmen die Algorithmen über sie treffen. Möglicherweise ist die Personalisierung von Suchmaschinen, vorgeschlagenen Inhalten und Newsfeeds vielen gar nicht bekannt. [http://www.informatik.uni-leipzig.de/~graebe/Texte/Geissert-19.pdf (Geissert, S. 10)] Die Unternehmen hinter den Plattformen verfolgen mit der Personalisierung eigene Ziele: Nach dem Einloggen sollen die Nutzer*innen möglichst lange auf der Plattform gehalten werden, digitale Nutzungsdaten hinterlassen und Einnahmen über personalisierte Werbung generieren. [https://www.isdglobal.org/wp-content/uploads/2018/09/ISD-NetzDG-Report-German-FINAL-26.9.18.pdf (Montag, Christian: Filterblasen: Wie wirken sich Filterblasen unter Berücksichtigung von Persönlichkeit auf (politische) Einstellung aus? In: Baldauf, Johannes (Hrsg.): Hassrede und Radikalisierung im Netz. Der OCCI Forschungsbericht. Online Civil Courage Initiative, 2018, S. 33, Zugriff 26.02.2021)]


Der Begriff der Filterblase (engl. filter bubble) geht auf den US-amerikanischen  Internetaktivisten Eli Pariser und sein 2011 erschienenes Buch „The Filter Bubble: What the Internet is Hiding from You“ (auf Deutsch: „Filterblase: Wie wir im Internet entmündigt werden“) zurück. <ref name="MADS"/> Filterblasen sind ein Phänomen des Internetzeitalters und drücken sich laut Pariser darin aus, dass im Internet  „A unique Universe of information for each of us“ (Ein einzigartiges Universum an Informationen für jeden von uns) entsteht. [2] Filterblasen können dabei als müssen dabei nicht unbedingt als Kontinuum verstehen: Entscheidend ist nicht ob, sondern bis zu welchem Grad die*der Einzelne in einer Filterblase steckt.[3]
==Filterblasen und Echokammer-Effekte==
Im Zusammenhang mit Filterblasen steht der so genannte Echokammer-Effekt, der manchmal fälschlich auch synonym für Filterblasen verwendet wird. In Echokammern (Engl. echo chamber) wird Nutzer*innen ihre eigene Meinung als Echo zurückgeworfen. Denn sie sind dort ausschließlich mit Gleichgesinnten zusammen. Personen mit anderen Meinungen verstummen angesichts dieser Übermacht und ziehen sich zurück. [http://www.researchgate.net/profile/Melanie-Magin/publication/337316528_Masslos_uberschatzt_Ein_Uberblick_uber_theoretische_Annahmen_und_empirische_Befunde_zu_Filterblasen_und_Echokammern/links/5dd16faa4585156b351bb30a/Masslos-ueberschaetzt-Ein-Ueberblick-ueber-theoretische-Annahmen-und-empirische-Befunde-zu-Filterblasen-und-Echokammern.pdf (Stark et. al., S. 3)] Eine Echokammer ist somit ein ''„metaphorischer Raum, in dem Aussagen verstärkt und Störgeräusche, etwa anders lautende Meinungen, geschluckt werden“''. [https://journalistikon.de/echokammer (Haim, Mario: Echokammer, Zugriff 26.02.2021)] Im Unterschied zur Filterblase werden die eigenen Ansichten in der Echokammer nicht durch technische Gegebenheiten, sondern im direkten Austausch mit anderen bestärkt. [https://lexikon.stangl.eu/30157/echokammer-effekt (Stangl, Werner: Stichwort: Echokammer-Effekt, Zugriff 26.02.2021)]


===Entstehung von Filterblasen===
Echokammern und Filterblasen im Social Web bedingen sich in der Praxis gegenseitig, wenn, wie zum Beispiel beim [[Instagram-Algorithmus]], für die Personalisierung von Social Software zusätzlich Daten aus dem Netzwerk der Nutzer*innen verwendet werden. Solchen sozialen Filtern liegt die Annahme zu Grunde, dass sich Menschen auch online mit Menschen vernetzen, die ihre Interessen und Vorlieben teilen (Homophilie). [http://www.researchgate.net/profile/Melanie-Magin/publication/337316528_Masslos_uberschatzt_Ein_Uberblick_uber_theoretische_Annahmen_und_empirische_Befunde_zu_Filterblasen_und_Echokammern/links/5dd16faa4585156b351bb30a/Masslos-ueberschaetzt-Ein-Ueberblick-ueber-theoretische-Annahmen-und-empirische-Befunde-zu-Filterblasen-und-Echokammern.pdf (Stark et. al., S. 2ff)] Tauchen in den sozial gefilterten Newsfeeds miteinander vernetzter Nutzer*innen vorwiegend ähnliche Inhalte auf, können digitale Echokammern entstehen. [http://www.informatik.uni-leipzig.de/~graebe/Texte/Geissert-19.pdf (Geissert, S. 6)] Echokammern sind im Gegensatz zu Filterblasen nicht nur ein Phänomen des Internetzeitalters - sie existieren ebenfalls in der analogen Welt. Mit dem Social Web entstanden aber ganz neue Möglichkeiten, um über weite räumliche Distanzen hinweg mit Gleichgesinnten ins Gespräch zu kommen. [https://www.isdglobal.org/wp-content/uploads/2018/09/ISD-NetzDG-Report-German-FINAL-26.9.18.pdf (Montag, S. 31)]


Laut Pariser entstehen Filterblasen im Internet dadurch, dass Suchmaschinen, die im Internet als Vermittler von Inhalten zwischen den Nutzer*innen stehen, Inhalte für die*den  Einzelnen vorsortieren und filtern. Für die gegenwärtige Diskussion des Phänomens Filterblase ist auch relevant, dass diese Art der Filterung auch auf Social Media Plattformen stattfindet. Diese Filter in Social Software dienen der Personalisierung und damit der Anpassung von Social Software an die Vorlieben individueller Nutzer*innen. Algorhytmen analysieren auf Basis von Profilangaben und bisherigem Nutzungsverhalten, welche Inhalte die einzelnen Nutzer*innen besonders interessieren und sorgen dafür, dass solche und ähnliche Inhalte in Zukunft verstärkt in ihrem Feed angezeigt werden. Zudem erhalten sie Vorschläge für entsprechende neue Kanäle zum Abonnieren oder weitere Produkte zum Kauf. Diese Form der Personalisierung beruht zunächst auf dem aktivem Verhalten der Nutzer*innen, wie dem Suchen eines bestimmten Begriffs, dem Liken eines Facebook-Posts, dem Merken eines bestimmten Produkts oder dem Abonnieren eines Twitter-/ oder Youtube-Kanals. Sie verselbständigt sich, da anhand der bisher bekannten Präferenzen der Nutzer*innen mit Hilfe der Algorithmen darauf geschlossen wird, welche Inhalte diese zukünftig konsumieren möchten. Um die*den Einzelnen baut sich so eine Filterblase auf, die um so undurchlässiger wird, je mehr ähnliche Inhalte sie*er anklickt. Einige Plattformen nutzen für die algorhitmische Personalisierung ihrer Social Software zusätzlich Daten aus dem Netzwerk der Nutzer*innen, so genannte soziale Filter. Der Verwendung solcher sozialen Filter liegt die Annahme zu Grunde, dass im Internet miteinander vernetzte Menschen ähnliche Vorlieben haben (so genannte Homophilie). (4) Pariser glaubte, dass Nutzer*innen in eine Filterblase geraten und bleiben dort gefangen bleiben können, ohne es zu bemerken. Denn dass die Algorithmen Annahmen über sie treffen und welche das konkret sind, ist ihnen nicht direkt transparent oder möglicherweise auch gar nicht bekannt. (5)
=Gefahren von Filterblasen und Echokammern=
Immer wieder werden Befürchtungen laut, dass Filterblasen und Echokammern zum Tummelplatz von Extremist*innen und Verschwörungstheoretiker*innen werden. Solche Nutzer*innen fühlten sich in der Filterblase einerseits durch die Informationen bestätigt, die sie über das Internet erreichen. Andererseits könnten sie in Echokammern fälschlicherweise den Eindruck gewinnen, dass die Mehrheit der Gesellschaft ihrer Meinung ist. [http://www.researchgate.net/profile/Melanie-Magin/publication/337316528_Masslos_uberschatzt_Ein_Uberblick_uber_theoretische_Annahmen_und_empirische_Befunde_zu_Filterblasen_und_Echokammern/links/5dd16faa4585156b351bb30a/Masslos-ueberschaetzt-Ein-Ueberblick-ueber-theoretische-Annahmen-und-empirische-Befunde-zu-Filterblasen-und-Echokammern.pdf (Stark et. al., S. 4f)] Diese Sorge steht auch im Zusammenhang mit Erkenntnissen darüber, dass sich [[Fake News]] über Soziale Medien deutlich schneller verbreiten als reale Nachrichten. [https://www.isdglobal.org/wp-content/uploads/2018/09/ISD-NetzDG-Report-German-FINAL-26.9.18.pdf (Montag, S. 36)]


Ziel dieser Personalisierung ist es Nutzer*innen nach dem Einloggen möglichst lange auf Plattform zu halten. Dadurch hinterlassen sie viele weitere digitale Nutzungsdaten, was für die Plattformen letztendlich höhere Einnahmen bedeutet, z.B. dank personalisierter Werbung. (6)  
Abgesehen vom möglichen Erstarken des politischen oder religiösen Extremismus wird vor weiteren Fallstricken für die Demokratie und das gesellschaftliche Miteinander gewarnt, falls Filterblasen und Echokammern für die Meinungsbildung vieler Menschen relevant werden. Unterschiedliche Gruppen könnten sich dann in ihren Wahrnehmungen und Einstellungen immer weiter voneinander entfernen. Mit zunehmender Polarisierung drohe die gesellschaftliche Spaltung in unversöhnliche Lager, die nicht mehr zu einem demokratischen Kompromiss fähig sind. [http://www.researchgate.net/profile/Melanie-Magin/publication/337316528_Masslos_uberschatzt_Ein_Uberblick_uber_theoretische_Annahmen_und_empirische_Befunde_zu_Filterblasen_und_Echokammern/links/5dd16faa4585156b351bb30a/Masslos-ueberschaetzt-Ein-Ueberblick-ueber-theoretische-Annahmen-und-empirische-Befunde-zu-Filterblasen-und-Echokammern.pdf (Stark et. al., S. 4f)]


===Filterblasen und Echokammer-Effekte===
=Verbreitung und Bedeutung von Filterblasen und Echokammern=
Im Zusammenhang mit Filterblasen steht der so genannte Echokammer-Effekt, der manchmal fälschlich auch synonym für Filterblasen verwendet wird. Echokammern (engl. echo chamber)  sind Diskussionsräume im Social Web, in denen einer*m Nutzer*in ihre*seine Meinung als Echo von den anderen Insassen zurückgeworfen wird. (7)  Eine Echokammer ist somit ein „metaphorischer Raum, in dem Aussagen verstärkt und Störgeräusche, etwa anders lautende Meinungen, geschluckt werden“. (8) Nutzer*innen in Echokammern werden permanent in ihren Ansichten einseitig bestärkt, weil sie ausschließlich mit Gleichgesinnten im Austausch sind. (9)  Echokammern und Filterblasen im Social Web bedingen in der Praxis gegenseitig, wenn in den sozial gefilterten Newsfeeds der Insassen einer solchen Echokammer vorwiegend ähnliche Inhalte auftauchen. (10) Echokammern existieren aber auch in der analogen Welt, wo sich Menschen schon immer mit Gleichgesinnten zusammentun. Mit dem Social Web sind heute allerdings ganz neue Möglichkeiten entstanden, um über weite räumliche Distanzen hinweg Gesprächspartner*innen mit ähnlichen Einstellungen und Vorlieben zu finden. (11)
Aktuelle Studien bescheinigen Filterblasen und Echokammern eine deutlich geringere Verbreitung und Bedeutung, als ursprünglich angenommen. Für Suchmaschinen wie Google zeigten Simulationsuntersuchungen mit vorher trainierten „Testaccounts“ mehrheitlich kaum Filterblaseneffekte. Wissenschaftler*innen werteten dafür beispielsweise die Daten aus, die Nutzer*innen über ihre Suchen und Suchergebnisse via Plug-in im Browser im Rahmen des Datenspendeprojektes vor der Bundestagswahl 2017 übermittelt hatten. Dabei fanden sie kaum Unterschiede bei den Suchergebnissen unterschiedlicher Personen, die mit den gleichen Begriffen nach Nachrichten oder Informationen zu prominenten Politiker*innen suchten. Sie schlussfolgerten, dass eher andere Faktoren entscheidend für das Ranking einer Internetseite in Suchmaschinen sind, wie etwa der Grad der Suchmaschinenoptimierung. [http://www.researchgate.net/profile/Melanie-Magin/publication/337316528_Masslos_uberschatzt_Ein_Uberblick_uber_theoretische_Annahmen_und_empirische_Befunde_zu_Filterblasen_und_Echokammern/links/5dd16faa4585156b351bb30a/Masslos-ueberschaetzt-Ein-Ueberblick-ueber-theoretische-Annahmen-und-empirische-Befunde-zu-Filterblasen-und-Echokammern.pdf (Stark et. al., S. 5f)] Auch wird davon ausgegangen, dass die Vernetzung vieler Nutzer*innen des Social Web viel weitreichender als in der analogen Welt und durch eher lose Verbindungen (so genannte weak ties) geprägt ist. Solche oberflächlichen Beziehungen setzen weniger Übereinstimmung voraus, so dass die Wahrscheinlichkeit steigt, im eigenen Netzwerk Personen mit ganz unterschiedlichen gesellschaftspolitischen Einstellungen zu haben. Damit sind Menschen im Social Web potentiell sogar einer größeren Meinungsvielfalt ausgesetzt als in der analogen Welt. [http://www.informatik.uni-leipzig.de/~graebe/Texte/Geissert-19.pdf (Geissert, S. 16)]


==Mögliche Gefahren von Filterblasen und Echokammern==
Zunehmend in den Fokus der Diskussion um Filterblasen und einseitige Informationen aus dem Social Web ist die Eigenverantwortung der Nutzer*innen gerückt. Sie entscheiden nichtzuletzt selbst, welche Inhalte sie auf Plattformen im Social Web aktiv anklicken und teilen. Eine Untersuchung von Facebooknutzer*innen in den USA bestätigte, dass diese aktive Auswahl eher auf die Inhalte im Newsfeed fällt, die dem eigenen Weltbild entsprechen. Abgeglichen wurde dafür das Klickverhalten mit den Angaben zu der politischen Einstellung (liberal oder konservativ) im Profil. Ein vergleichbares Verhalten war bisher übrigens auch in der analogen Welt möglich, da einzelne Zeitungen und Fernsehsender häufig für bestimmte politische Grundrichtungen stehen. [http://www.researchgate.net/profile/Melanie-Magin/publication/337316528_Masslos_uberschatzt_Ein_Uberblick_uber_theoretische_Annahmen_und_empirische_Befunde_zu_Filterblasen_und_Echokammern/links/5dd16faa4585156b351bb30a/Masslos-ueberschaetzt-Ein-Ueberblick-ueber-theoretische-Annahmen-und-empirische-Befunde-zu-Filterblasen-und-Echokammern.pdf (Stark et. al., S. 7)]


Mögliche Gefahren von Echokammern und Filterblasen werden vor allem im Zusammenhang damit diskutiert, dass sich Fake News über Soziale Medien deutlich schneller verbreiten als reale Nachrichten. (10) Befürchtet wird, dass Nutzer*innen in Filterblasen und digitalen Echokammern durch das Konsumieren homogener Inhalte und die permanente Bestätigung aus ihrem digitalen sozialen Umfeld ein einseitiges Weltbild entwickeln. Vertreter*innen radikaler Minderheitsmeinungen können sich so nicht nur weiter zu radikalisieren, sondern auch fälschlicherweise den Eindruck gewinnen, eine Mehrheitsmeinung zu vertreten. Jenseits von politischem oder religiösem Extremismus kann es weitere Gefahren für die Demokratie und das gesellschaftliche Miteinander geben, wenn Menschen sich ihre Meinung nur noch in abgeschlossenen Filterblasen und Echokammern bilden. Die Wahrnehmungen und Einstellungen unterschiedlicher Gruppen in der Gesellschaft entfernen sich dann immer weiter voneinander. Mit zunehmender Polarisierung droht eine Spaltung in unversöhnliche Lager, die nicht mehr zu einem demokratischen Kompromiss fähig sind. (12)
Doch obwohl Filterblasen im Social Web nach aktuellem Forschungsstand nicht zu einem neuartigen Phänomen an gesamtgesellschaftlicher Desinformation führen - seitens der Forschenden wird immer wieder betont, dass es für eine generelle Entwarnung zu früh ist. Emotionalisierende und extreme Inhalte erreichen im Social Web deutlich mehr Reaktionen. Das katapultiert sie in den News Feeds nach oben. [http://www.researchgate.net/profile/Melanie-Magin/publication/337316528_Masslos_uberschatzt_Ein_Uberblick_uber_theoretische_Annahmen_und_empirische_Befunde_zu_Filterblasen_und_Echokammern/links/5dd16faa4585156b351bb30a/Masslos-ueberschaetzt-Ein-Ueberblick-ueber-theoretische-Annahmen-und-empirische-Befunde-zu-Filterblasen-und-Echokammern.pdf (Stark et. al., S. 10f)] Bei der Radikalisierung von Personen, die bereits mit extremistischen Einstellungen ins Social Web gekommen sind oder zumindest offen für solche Inhalte sind, können Filterblasen und Echokammern also tatsächlich eine Rolle spielen. Es gibt bereits Angebote, die Filterblasen- und Echokammereffekten bewusst entgegenwirken sollen: Über die Plattform "Diskutier mit mir" können sich Nutzer*innen annonym mit Menschen verbinden, die eine andere Meinung haben und ins Gespräch kommen. [https://www.diskutiermitmir.de/#/about-us (diskutiermitmir.de, Zugriff 26.02.2021)]
 
==Bisherige Erkenntnisse zur Verbreitung und Bedeutung von Filterblasen und Echokammern==
Nach wissenschaftlichen Erkenntnissen sind Filterblasen deutlich weniger verbreitet und bedeutend, als von Pariser angenommen. Für Suchmaschinen wie Google zeigten Simulationsstudien mit vorher trainierten „Testaccounts“ mehrheitlich kaum Filterblaseneffekte. Keine oder nur geringe Unterschiede bei den Suchergebnissen unterschiedlicher Nutzer*innen aus, die mit den gleichen Begriffen nach Nachrichten oder Informationen zu prominenten Politiker*innen suchten, zeigte eine Studie auf Basis des Datenspendeprojekts vor der Bundestagswahl 2017. Ausgewertet wurden dafür die Daten, die  Nutzer*innen über ihre Suchen und Suchergebnisse via Plug-in im Browser gespendet hatten. Insgesamt sind also eher andere Faktoren, wie der Grad der Suchmaschinenoptimierung einer Internetseite, entscheidend für das Ranking in Suchmaschinen. 
Zunehmend in den Fokus der Diskussion um einseitige Informationsaufnahme im Social Web ist die Auswahl der Inhalten durch die Nutzer*innen selbst gerückt. Die Nutzung von über Social Software bereitgestellten Inhalten ist demnach nicht nur durch algorhitmische Filterung, sondern eigene (bewusste oder unbewusste) Entscheidungen bedingt. So zeigte eine Untersuchung von Facebooknutzer*innen in den USA, dass gezielt eher die Inhalte im Newsfeed angeklickt werden, in dem eigenen Weltbild entsprechen. Abgeglichen wurde das Klickverhalten der Nutzer*innen mit ihren Angaben zu ihrer politischen Einstellung (liberal oder konservativ) im eigenen Profil. (13)
Auch wird die Annahme weit verbreiteter meinungshomogener Netzwerke im Social Web dahingehend in Frage gestellt, als dass die Vernetzung dort viel weitreichender als in der analogen Welt ist. Basierend eher auf losen Verbindungen und oberflächlichen Beziehungen (so genannten weak ties), steigt die Wahrscheinlichkeit, im eigenen Netzwerk Personen mit heterogenen Einstellungen zu unterschiedlichen Lebensbereichen und gesellschaftspolitischen Themen zu haben. Damit sind Nutzer*innen im Social Web potentiell sogar einer größeren Meinungsvielfalt ausgesetzt als in der analogen Welt. (14)
 
Dennoch befürchten Forscher*innen, dass Filterblasen und Echokammern für die Radikalisierung von Personen eine Rolle spielen, die bereits mit der Neigung zu extremistischen Einstellungen ins Social Web gekommen sind. Hinzukommt, dass Menschen auf Plattformen im Social Web intensiver auf emotionalisierende Inhalte und extreme Äußerungen reagieren. Durch ihre Reaktionen bringen sie diese - gewollt oder ungewollt - algorhitmisch in den News-Feeds der anderen nach oben. (15)
Auch wenn nach Desinformation durch Filterblasen im Social Web nach aktuellem Forschungsstand  im Gegensatz zu Parisers ursprünglicher kein Massenphänomen ist,  im Social Web ist die Entstehung von Filterblasen und Echokammern im Zusammenspiel den Nutzer*innenentscheidung bei der Vernetzung und der Nutzung von Inhalten prinzipiell möglich. Jedoch gibt dort auch einzelne Angebote, die Filterblasen- und Echokammereffekten bewusst entgegenwirken sollen: Über die Plattform "Diskutier mit mir" können sich Nutzer*innen annonym mit Menschen verbinden, die eine andere politische Meinung zu einem bestimmten Thema haben. (16)
 
 
==Einzelnachweise==
 
<references>
 
<ref name="MADS">Friedrich, Greta, ''Was ist eine Filterblase.'' In: ''https://mads.de/was-ist-eine-filterblase.'' Zugriff 25.02.2021 </ref>
</references>
 
>ref 1) Friedrich, Greta, Was ist eine Filterblase. https://mads.de/was-ist-eine-filterblase [Zugriff 25.02.2021]
 
(2) Geissert, Clemens (2019): Filterblasen und Echokammern im Social Web. https://www.informatik.uni-leipzig.de/~graebe/Texte/Geissert-19.pdf [Zugriff 25.02.2021], S.4
 
(3) Stark, Birgit/ Magin, Melanie/ Jürgens, Pascal (2019): Maßlos überschätzt. Ein Überblick über theoretische Annahmen und empirische Befunde zu Filterblasen und Echokammern. https://www.researchgate.net/profile/Melanie-Magin/publication/337316528_Masslos_uberschatzt_Ein_Uberblick_uber_theoretische_Annahmen_und_empirische_Befunde_zu_Filterblasen_und_Echokammern/links/5dd16faa4585156b351bb30a/Masslos-ueberschaetzt-Ein-Ueberblick-ueber-theoretische-Annahmen-und-empirische-Befunde-zu-Filterblasen-und-Echokammern.pdf [Zugriff 25.02.2021], S. 10f
 
(4) Stark, Birgit/ Magin, Melanie/ Jürgens, Pascal (2019): Maßlos überschätzt. Ein Überblick über theoretische Annahmen und empirische Befunde zu Filterblasen und Echokammern. https://www.researchgate.net/profile/Melanie-Magin/publication/337316528_Masslos_uberschatzt_Ein_Uberblick_uber_theoretische_Annahmen_und_empirische_Befunde_zu_Filterblasen_und_Echokammern/links/5dd16faa4585156b351bb30a/Masslos-ueberschaetzt-Ein-Ueberblick-ueber-theoretische-Annahmen-und-empirische-Befunde-zu-Filterblasen-und-Echokammern.pdf [Zugriff 25.02.2021], S. 2ff
 
(5) Geissert, Clemens (2019): Filterblasen und Echokammern im Social Web. https://www.informatik.uni-leipzig.de/~graebe/Texte/Geissert-19.pdf [Zugriff 25.02.2021], S.10
 
(6) Montag, Christian (2018): Filterblasen: „Wie wirken sich Filterblasen unter Berücksichtigung von Persönlichkeit auf (politische) Einstellung aus?“ https://www.isdglobal.org/wp-content/uploads/2018/09/ISD-NetzDG-Report-German-FINAL-26.9.18.pdf#page=31 [Zugriff 25.02.2021] S. 33
 
(7) Stark, Birgit/ Magin, Melanie/ Jürgens, Pascal (2019): Maßlos überschätzt. Ein Überblick über theoretische Annahmen und empirische Befunde zu Filterblasen und Echokammern. https://www.researchgate.net/profile/Melanie-Magin/publication/337316528_Masslos_uberschatzt_Ein_Uberblick_uber_theoretische_Annahmen_und_empirische_Befunde_zu_Filterblasen_und_Echokammern/links/5dd16faa4585156b351bb30a/Masslos-ueberschaetzt-Ein-Ueberblick-ueber-theoretische-Annahmen-und-empirische-Befunde-zu-Filterblasen-und-Echokammern.pdf [Zugriff 25.02.2021], S. 3
 
(8) Haim, Mario: Echokammer. Journalistikon. das Wörterbuch der Journalistik. https://journalistikon.de/echokammer/ [Zugriff 25.02.2021]
 
(9) Stangl, Werner: Stichwort: 'Echokammer-Effekt'. Online Lexikon für Psychologie und Pädagogik. https://lexikon.stangl.eu/30157/echokammer-effekt [Zugriff 25.02.2021]
 
(10) Geissert, Clemens (2019): Filterblasen und Echokammern im Social Web. https://www.informatik.uni-leipzig.de/~graebe/Texte/Geissert-19.pdf [Zugriff 25.02.2021], S.6
 
 
(9) Montag, Christian (2018): Filterblasen: „Wie wirken sich Filterblasen unter Berücksichtigung von Persönlichkeit auf (politische) Einstellung aus?“ https://www.isdglobal.org/wp-content/uploads/2018/09/ISD-NetzDG-Report-German-FINAL-26.9.18.pdf#page=31 [Zugriff 25.02.2021] S. 31f
 
(11) Montag, Christian (2018): Filterblasen: „Wie wirken sich Filterblasen unter Berücksichtigung von Persönlichkeit auf (politische) Einstellung aus?“, in: https://www.isdglobal.org/wp-content/uploads/2018/09/ISD-NetzDG-Report-German-FINAL-26.9.18.pdf#page=31 S. 36
 
(12) Stark, Birgit/ Magin, Melanie/ Jürgens, Pascal (2019): Maßlos überschätzt. Ein Überblick über theoretische Annahmen und empirische Befunde zu Filterblasen und Echokammern. https://www.researchgate.net/profile/Melanie-Magin/publication/337316528_Masslos_uberschatzt_Ein_Uberblick_uber_theoretische_Annahmen_und_empirische_Befunde_zu_Filterblasen_und_Echokammern/links/5dd16faa4585156b351bb30a/Masslos-ueberschaetzt-Ein-Ueberblick-ueber-theoretische-Annahmen-und-empirische-Befunde-zu-Filterblasen-und-Echokammern.pdf [Zugriff 25.02.2021], S. 4f
 
(13) Stark, Birgit/ Magin, Melanie/ Jürgens, Pascal (2019): Maßlos überschätzt. Ein Überblick über theoretische Annahmen und empirische Befunde zu Filterblasen und Echokammern. https://www.researchgate.net/profile/Melanie-Magin/publication/337316528_Masslos_uberschatzt_Ein_Uberblick_uber_theoretische_Annahmen_und_empirische_Befunde_zu_Filterblasen_und_Echokammern/links/5dd16faa4585156b351bb30a/Masslos-ueberschaetzt-Ein-Ueberblick-ueber-theoretische-Annahmen-und-empirische-Befunde-zu-Filterblasen-und-Echokammern.pdf [Zugriff 25.02.2021], S. 5ff
 
(14) Geissert, Clemens (2019): Filterblasen und Echokammern im Social Web. https://www.informatik.uni-leipzig.de/~graebe/Texte/Geissert-19.pdf [Zugriff 25.02.2021], S.16
 
(15) Stark, Birgit/ Magin, Melanie/ Jürgens, Pascal (2019): Maßlos überschätzt. Ein Überblick über theoretische Annahmen und empirische Befunde zu Filterblasen und Echokammern. https://www.researchgate.net/profile/Melanie-Magin/publication/337316528_Masslos_uberschatzt_Ein_Uberblick_uber_theoretische_Annahmen_und_empirische_Befunde_zu_Filterblasen_und_Echokammern/links/5dd16faa4585156b351bb30a/Masslos-ueberschaetzt-Ein-Ueberblick-ueber-theoretische-Annahmen-und-empirische-Befunde-zu-Filterblasen-und-Echokammern.pdf [Zugriff 25.02.2021], S. 10f
 
(16) https://www.diskutiermitmir.de/#/about-us
 
<references>

Aktuelle Version vom 11. März 2021, 12:43 Uhr

Definition

Der Begriff der Filterblase (Engl. filter bubble) geht auf den US-amerikanischen Internetaktivisten Eli Pariser und sein 2011 erschienenes Buch „The Filter Bubble: What the Internet is Hiding from You“ zurück (deutscher Titel: „Filterblase: Wie wir im Internet entmündigt werden“). (Friedrich, Greta: Was ist eine Filterblase? 2019, Zugriff 26.02.2021) Filterblasen drücken sich darin aus, dass im Internet „A unique Universe of information for each of us“, also ein einzigartiges Informationsuniversum für jede*n einzelne*n Nutzer*in geschaffen wird. (Geissert, Clemens: Filterblasen und Echokammern im Social Web, 2019, S. 4, Zugriff 26.02.2021) Dieses entsteht durch die algorithmische Personalisierung einer Suchmaschine oder von Feeds auf Social Media Plattformen, so dass Nutzer*innen nur noch selektiv Inhalte angezeigt werden. Um die*den Einzelnen baut sich dann eine Filterblase auf, aus der "unliebsame" Informationen und Meinungen gewissermaßen herausgefiltert werden. Wer in solch einer Filterblase steckt, läuft Gefahr, politisch und gesellschaftlich nicht umfassend informiert zu sein und permanent in seinen bisherigen Ansichten bestätigt zu werden. Einseitige Weltbilder und extremistische Einstellungen können sich so entwickeln bzw. verfestigen. (Geissert, S.4)

Entstehung von Filterblasen

Parisers Annahmen zu Filterblasen fokussierten sich seinerzeit auf Suchmaschinen, die im Internet als Inhalte-Vermittler fungieren. Suchmaschinen wie Google speichern das Such- und Surfverhalten ihrer Nutzer*innen, um ihnen bei künftigen Suchen Inhalte personalisiert vorsortiert und gefiltert anzeigen zu können. Gegenwärtig findet diese Art der Filterung ebenso auf Plattformen im Social Web statt, um Social Software für individuelle Nutzer*innen anzupassen. Algorithmen analysieren Profilangaben und bisheriges Nutzungsverhalten nach Inhalten, die einzelne Nutzer*innen besonders interessieren könnten. Ähnliche Inhalte werden daraufhin verstärkt in ihrem Feed angezeigt. Ausgehend von den aktiven eigenen Entscheidungen der Nutzer*innen, z.B. zum Liken eines Facebook-Posts, dem Merken eines angebotenen Produkts oder dem Abonnieren eines Twitter-Kanals, schließt der Algorithmus weiter darauf, welche Inhalte sie zukünftig verstärkt konsumieren möchten. Auf dem bisherigen Klickverhalten basieren somit nicht nur die Inhalte der Feeds, sondern auch Vorschläge für neue Kanäle zum Abonnieren oder weitere Produkte zum Kauf. Die Filterblase wird um so undurchlässiger, je mehr ähnliche Inhalte angeklickt werden. (Stark, Birgit et al.: Maßlos überschätzt. Ein Überblick über theoretische Annahmen und empirische Befunde zu Filterblasen und Echokammern, 2019, S. 2ff, Zugriff 26.02.2021) Pariser glaubte, dass der Weg in eine Filterblase ein unbewusster Prozess ist. Den Nutzer*innen ist nicht transparent, welche Annahmen die Algorithmen über sie treffen. Möglicherweise ist die Personalisierung von Suchmaschinen, vorgeschlagenen Inhalten und Newsfeeds vielen gar nicht bekannt. (Geissert, S. 10) Die Unternehmen hinter den Plattformen verfolgen mit der Personalisierung eigene Ziele: Nach dem Einloggen sollen die Nutzer*innen möglichst lange auf der Plattform gehalten werden, digitale Nutzungsdaten hinterlassen und Einnahmen über personalisierte Werbung generieren. (Montag, Christian: Filterblasen: Wie wirken sich Filterblasen unter Berücksichtigung von Persönlichkeit auf (politische) Einstellung aus? In: Baldauf, Johannes (Hrsg.): Hassrede und Radikalisierung im Netz. Der OCCI Forschungsbericht. Online Civil Courage Initiative, 2018, S. 33, Zugriff 26.02.2021)

Filterblasen und Echokammer-Effekte

Im Zusammenhang mit Filterblasen steht der so genannte Echokammer-Effekt, der manchmal fälschlich auch synonym für Filterblasen verwendet wird. In Echokammern (Engl. echo chamber) wird Nutzer*innen ihre eigene Meinung als Echo zurückgeworfen. Denn sie sind dort ausschließlich mit Gleichgesinnten zusammen. Personen mit anderen Meinungen verstummen angesichts dieser Übermacht und ziehen sich zurück. (Stark et. al., S. 3) Eine Echokammer ist somit ein „metaphorischer Raum, in dem Aussagen verstärkt und Störgeräusche, etwa anders lautende Meinungen, geschluckt werden“. (Haim, Mario: Echokammer, Zugriff 26.02.2021) Im Unterschied zur Filterblase werden die eigenen Ansichten in der Echokammer nicht durch technische Gegebenheiten, sondern im direkten Austausch mit anderen bestärkt. (Stangl, Werner: Stichwort: Echokammer-Effekt, Zugriff 26.02.2021)

Echokammern und Filterblasen im Social Web bedingen sich in der Praxis gegenseitig, wenn, wie zum Beispiel beim Instagram-Algorithmus, für die Personalisierung von Social Software zusätzlich Daten aus dem Netzwerk der Nutzer*innen verwendet werden. Solchen sozialen Filtern liegt die Annahme zu Grunde, dass sich Menschen auch online mit Menschen vernetzen, die ihre Interessen und Vorlieben teilen (Homophilie). (Stark et. al., S. 2ff) Tauchen in den sozial gefilterten Newsfeeds miteinander vernetzter Nutzer*innen vorwiegend ähnliche Inhalte auf, können digitale Echokammern entstehen. (Geissert, S. 6) Echokammern sind im Gegensatz zu Filterblasen nicht nur ein Phänomen des Internetzeitalters - sie existieren ebenfalls in der analogen Welt. Mit dem Social Web entstanden aber ganz neue Möglichkeiten, um über weite räumliche Distanzen hinweg mit Gleichgesinnten ins Gespräch zu kommen. (Montag, S. 31)

Gefahren von Filterblasen und Echokammern

Immer wieder werden Befürchtungen laut, dass Filterblasen und Echokammern zum Tummelplatz von Extremist*innen und Verschwörungstheoretiker*innen werden. Solche Nutzer*innen fühlten sich in der Filterblase einerseits durch die Informationen bestätigt, die sie über das Internet erreichen. Andererseits könnten sie in Echokammern fälschlicherweise den Eindruck gewinnen, dass die Mehrheit der Gesellschaft ihrer Meinung ist. (Stark et. al., S. 4f) Diese Sorge steht auch im Zusammenhang mit Erkenntnissen darüber, dass sich Fake News über Soziale Medien deutlich schneller verbreiten als reale Nachrichten. (Montag, S. 36)

Abgesehen vom möglichen Erstarken des politischen oder religiösen Extremismus wird vor weiteren Fallstricken für die Demokratie und das gesellschaftliche Miteinander gewarnt, falls Filterblasen und Echokammern für die Meinungsbildung vieler Menschen relevant werden. Unterschiedliche Gruppen könnten sich dann in ihren Wahrnehmungen und Einstellungen immer weiter voneinander entfernen. Mit zunehmender Polarisierung drohe die gesellschaftliche Spaltung in unversöhnliche Lager, die nicht mehr zu einem demokratischen Kompromiss fähig sind. (Stark et. al., S. 4f)

Verbreitung und Bedeutung von Filterblasen und Echokammern

Aktuelle Studien bescheinigen Filterblasen und Echokammern eine deutlich geringere Verbreitung und Bedeutung, als ursprünglich angenommen. Für Suchmaschinen wie Google zeigten Simulationsuntersuchungen mit vorher trainierten „Testaccounts“ mehrheitlich kaum Filterblaseneffekte. Wissenschaftler*innen werteten dafür beispielsweise die Daten aus, die Nutzer*innen über ihre Suchen und Suchergebnisse via Plug-in im Browser im Rahmen des Datenspendeprojektes vor der Bundestagswahl 2017 übermittelt hatten. Dabei fanden sie kaum Unterschiede bei den Suchergebnissen unterschiedlicher Personen, die mit den gleichen Begriffen nach Nachrichten oder Informationen zu prominenten Politiker*innen suchten. Sie schlussfolgerten, dass eher andere Faktoren entscheidend für das Ranking einer Internetseite in Suchmaschinen sind, wie etwa der Grad der Suchmaschinenoptimierung. (Stark et. al., S. 5f) Auch wird davon ausgegangen, dass die Vernetzung vieler Nutzer*innen des Social Web viel weitreichender als in der analogen Welt und durch eher lose Verbindungen (so genannte weak ties) geprägt ist. Solche oberflächlichen Beziehungen setzen weniger Übereinstimmung voraus, so dass die Wahrscheinlichkeit steigt, im eigenen Netzwerk Personen mit ganz unterschiedlichen gesellschaftspolitischen Einstellungen zu haben. Damit sind Menschen im Social Web potentiell sogar einer größeren Meinungsvielfalt ausgesetzt als in der analogen Welt. (Geissert, S. 16)

Zunehmend in den Fokus der Diskussion um Filterblasen und einseitige Informationen aus dem Social Web ist die Eigenverantwortung der Nutzer*innen gerückt. Sie entscheiden nichtzuletzt selbst, welche Inhalte sie auf Plattformen im Social Web aktiv anklicken und teilen. Eine Untersuchung von Facebooknutzer*innen in den USA bestätigte, dass diese aktive Auswahl eher auf die Inhalte im Newsfeed fällt, die dem eigenen Weltbild entsprechen. Abgeglichen wurde dafür das Klickverhalten mit den Angaben zu der politischen Einstellung (liberal oder konservativ) im Profil. Ein vergleichbares Verhalten war bisher übrigens auch in der analogen Welt möglich, da einzelne Zeitungen und Fernsehsender häufig für bestimmte politische Grundrichtungen stehen. (Stark et. al., S. 7)

Doch obwohl Filterblasen im Social Web nach aktuellem Forschungsstand nicht zu einem neuartigen Phänomen an gesamtgesellschaftlicher Desinformation führen - seitens der Forschenden wird immer wieder betont, dass es für eine generelle Entwarnung zu früh ist. Emotionalisierende und extreme Inhalte erreichen im Social Web deutlich mehr Reaktionen. Das katapultiert sie in den News Feeds nach oben. (Stark et. al., S. 10f) Bei der Radikalisierung von Personen, die bereits mit extremistischen Einstellungen ins Social Web gekommen sind oder zumindest offen für solche Inhalte sind, können Filterblasen und Echokammern also tatsächlich eine Rolle spielen. Es gibt bereits Angebote, die Filterblasen- und Echokammereffekten bewusst entgegenwirken sollen: Über die Plattform "Diskutier mit mir" können sich Nutzer*innen annonym mit Menschen verbinden, die eine andere Meinung haben und ins Gespräch kommen. (diskutiermitmir.de, Zugriff 26.02.2021)