Filterblase: Unterschied zwischen den Versionen
Zeile 2: | Zeile 2: | ||
Der Begriff der Filterblase (englisch: filter bubble) geht auf den US-amerikanischen Internetaktivisten Eli Pariser und sein 2011 erschienenes Buch „The Filter Bubble: What the Internet is Hiding from You“ zurück (deutscher Titel: „Filterblase: Wie wir im Internet entmündigt werden“). [https://mads.de/was-ist-eine-filterblase (Friedrich, Greta: Was ist eine Filterblase? 2019, Zugriff 26. 02.2021)] Filterblasen drücken sich darin aus, dass im Internet ''„A unique Universe of information for each of us“'', also ein einzigartiges Informationsuniversum für jede*n Nutzer*in geschaffen wird. Dieses entsteht durch die algorithmische Personalisierung von einer [[Suchmaschine]] oder von Feeds auf Social Media Plattformen, so dass Nutzer*innen nur noch selektiv Informationen und Meinungen angezeigt werden. Da die Personalisierung anhand der algorithmisch ermittelten individuellen Vorlieben erfolgt, werden mutmaßlich von vornherein die Inhalte aus dem Newsfeed herausgefiltert, die nicht den eigenen Ansichten entsprechen. Wer in solch einer Filterblase steckt, läuft Gefahr, politisch und gesellschaftlich nicht umfassend informiert zu sein und stattdessen permanent in seinen bisherigen Ansichten bestätigt zu werden. Einseitige Weltbilder und extremistische Einstellungen können sich so entwickeln bzw. verfestigen. [http://www.informatik.uni-leipzig.de/~graebe/Texte/Geissert-19.pdf (Geissert, Clemens: Filterblasen und Echokammern im Social Web, 2019, S. 4, Zugriff 26.02.2021)] | Der Begriff der Filterblase (englisch: filter bubble) geht auf den US-amerikanischen Internetaktivisten Eli Pariser und sein 2011 erschienenes Buch „The Filter Bubble: What the Internet is Hiding from You“ zurück (deutscher Titel: „Filterblase: Wie wir im Internet entmündigt werden“). [https://mads.de/was-ist-eine-filterblase (Friedrich, Greta: Was ist eine Filterblase? 2019, Zugriff 26. 02.2021)] Filterblasen drücken sich darin aus, dass im Internet ''„A unique Universe of information for each of us“'', also ein einzigartiges Informationsuniversum für jede*n Nutzer*in geschaffen wird. Dieses entsteht durch die algorithmische Personalisierung von einer [[Suchmaschine]] oder von Feeds auf Social Media Plattformen, so dass Nutzer*innen nur noch selektiv Informationen und Meinungen angezeigt werden. Da die Personalisierung anhand der algorithmisch ermittelten individuellen Vorlieben erfolgt, werden mutmaßlich von vornherein die Inhalte aus dem Newsfeed herausgefiltert, die nicht den eigenen Ansichten entsprechen. Wer in solch einer Filterblase steckt, läuft Gefahr, politisch und gesellschaftlich nicht umfassend informiert zu sein und stattdessen permanent in seinen bisherigen Ansichten bestätigt zu werden. Einseitige Weltbilder und extremistische Einstellungen können sich so entwickeln bzw. verfestigen. [http://www.informatik.uni-leipzig.de/~graebe/Texte/Geissert-19.pdf (Geissert, Clemens: Filterblasen und Echokammern im Social Web, 2019, S. 4, Zugriff 26.02.2021)] | ||
==Entstehung von Filterblasen== | ==Entstehung von Filterblasen== | ||
Als Ursache von Filterblasen sah Pariser seinerzeit Suchmaschinen, die im Internet als Inhalte-Vermittler fungieren. Suchmaschinen wie Google speichern das Such- und Surfverhalten ihrer Nutzer*innen, um ihnen bei künftigen Suchen Inhalte personalisiert vorsortiert und gefiltert anzeigen zu können. Gegenwärtig findet diese Art der Filterung auch auf Plattformen im Social Web statt, um Social Software für individuelle Nutzer*innen anzupassen. Algorithmen analysieren Profilangaben und bisheriges Nutzungsverhalten nach Inhalten, die einzelne Nutzer*innen besonders interessieren könnten. Ähnliche Inhalte werden daraufhin verstärkt in ihrem Feed angezeigt. Ausgehend von den aktiven eigenen Entscheidungen der Nutzer*innen, z.B. zum Liken eines [[Facebook]]-Posts, dem Merken eines angebotenen Produkts oder dem Abonnieren eines [[Twitter]]-Kanals, schließt der Algorithmus weiter darauf, welche Inhalte sie zukünftig verstärkt konsumieren möchten. Auf dem bisherigen Klickverhalten basieren somit auch Vorschläge für neue Kanäle zum Abonnieren oder weitere Produkte zum Kauf. Um die*den Einzelnen baut sich eine Filterblase auf, aus der „unliebsame“ Inhalte gewissermaßen herausgefiltert werden. Die Filterblase wird um so undurchlässiger, je mehr ähnliche Inhalte angeklickt werden. [http://www.researchgate.net/profile/Melanie-Magin/publication/337316528_Masslos_uberschatzt_Ein_Uberblick_uber_theoretische_Annahmen_und_empirische_Befunde_zu_Filterblasen_und_Echokammern/links/5dd16faa4585156b351bb30a/Masslos-ueberschaetzt-Ein-Ueberblick-ueber-theoretische-Annahmen-und-empirische-Befunde-zu-Filterblasen-und-Echokammern.pdf Stark, Birgit et al.: Maßlos überschätzt. Ein Überblick über theoretische Annahmen und empirische Befunde zu Filterblasen und Echokammern, 2019, S. 2ff, Zugriff 26.02.2021)] Pariser glaubte, dass es sich dabei um einen unbewussten Prozess handelt. Tatsächlich ist den Nutzer*innen nicht transparent, welche Annahmen die Algorithmen über sie treffen. Möglicherweise ist die Personalisierung von Suchmaschinen und Newsfeeds vielen auch gar nicht bekannt. [http://www.informatik.uni-leipzig.de/~graebe/Texte/Geissert-19.pdf (Geissert, S. 10)] | Als Ursache von Filterblasen sah Pariser seinerzeit Suchmaschinen, die im Internet als Inhalte-Vermittler fungieren. Suchmaschinen wie Google speichern das Such- und Surfverhalten ihrer Nutzer*innen, um ihnen bei künftigen Suchen Inhalte personalisiert vorsortiert und gefiltert anzeigen zu können. Gegenwärtig findet diese Art der Filterung auch auf Plattformen im Social Web statt, um Social Software für individuelle Nutzer*innen anzupassen. Algorithmen analysieren Profilangaben und bisheriges Nutzungsverhalten nach Inhalten, die einzelne Nutzer*innen besonders interessieren könnten. Ähnliche Inhalte werden daraufhin verstärkt in ihrem Feed angezeigt. Ausgehend von den aktiven eigenen Entscheidungen der Nutzer*innen, z.B. zum Liken eines [[Facebook]]-Posts, dem Merken eines angebotenen Produkts oder dem Abonnieren eines [[Twitter]]-Kanals, schließt der Algorithmus weiter darauf, welche Inhalte sie zukünftig verstärkt konsumieren möchten. Auf dem bisherigen Klickverhalten basieren somit auch Vorschläge für neue Kanäle zum Abonnieren oder weitere Produkte zum Kauf. Um die*den Einzelnen baut sich eine Filterblase auf, aus der „unliebsame“ Inhalte gewissermaßen herausgefiltert werden. Die Filterblase wird um so undurchlässiger, je mehr ähnliche Inhalte angeklickt werden. [http://www.researchgate.net/profile/Melanie-Magin/publication/337316528_Masslos_uberschatzt_Ein_Uberblick_uber_theoretische_Annahmen_und_empirische_Befunde_zu_Filterblasen_und_Echokammern/links/5dd16faa4585156b351bb30a/Masslos-ueberschaetzt-Ein-Ueberblick-ueber-theoretische-Annahmen-und-empirische-Befunde-zu-Filterblasen-und-Echokammern.pdf (Stark, Birgit et al.: Maßlos überschätzt. Ein Überblick über theoretische Annahmen und empirische Befunde zu Filterblasen und Echokammern, 2019, S. 2ff, Zugriff 26.02.2021)] Pariser glaubte, dass es sich dabei um einen unbewussten Prozess handelt. Tatsächlich ist den Nutzer*innen nicht transparent, welche Annahmen die Algorithmen über sie treffen. Möglicherweise ist die Personalisierung von Suchmaschinen und Newsfeeds vielen auch gar nicht bekannt. [http://www.informatik.uni-leipzig.de/~graebe/Texte/Geissert-19.pdf (Geissert, S. 10)] | ||
Die Unternehmen hinter den Plattformen verfolgen mit der Personalisierung eigene Ziele: Nach dem Einloggen sollen die Nutzer*innen möglichst lange auf der Plattform gehalten werden, digitale Nutzungsdaten hinterlassen und Einnahmen über personalisierte Werbung generieren. [https://www.isdglobal.org/wp-content/uploads/2018/09/ISD-NetzDG-Report-German-FINAL-26.9.18.pdf (Montag, Christian: Filterblasen: Wie wirken sich Filterblasen unter Berücksichtigung von Persönlichkeit auf (politische) Einstellung aus? In: Baldauf, Johannes (Hrsg.): Hassrede und Radikalisierung im Netz. Der OCCI Forschungsbericht. Online Civil Courage Initiative, 2018, S. 33 Zugriff 26.02.2021)] | |||
==Filterblasen und Echokammer-Effekte== | ==Filterblasen und Echokammer-Effekte== | ||
Im Zusammenhang mit Filterblasen steht der so genannte Echokammer-Effekt, der manchmal fälschlich auch synonym für Filterblasen verwendet wird. In Echokammern (engl. echo chamber) wird Nutzer*innen ihre eigene Meinung als Echo zurückgeworfen. Denn sie sind dort ausschließlich mit Gleichgesinnten zusammen. Personen mit anderen Meinungen verstummen angesichts dieser Übermacht und ziehen sich zurück. [http://www.researchgate.net/profile/Melanie-Magin/publication/337316528_Masslos_uberschatzt_Ein_Uberblick_uber_theoretische_Annahmen_und_empirische_Befunde_zu_Filterblasen_und_Echokammern/links/5dd16faa4585156b351bb30a/Masslos-ueberschaetzt-Ein-Ueberblick-ueber-theoretische-Annahmen-und-empirische-Befunde-zu-Filterblasen-und-Echokammern.pdf (Stark et. al., S. 3)] Im Unterschied zur Filterblase werden also in der Echokammer die eigenen Ansichten im direkten Austausch mit anderen bestätigt. Eine Echokammer ist somit ein „metaphorischer Raum, in dem Aussagen verstärkt und Störgeräusche, etwa anders lautende Meinungen, geschluckt werden“. [https://journalistikon.de/echokammer (Haim, Mario: Echokammer. In: Journalistikon. Das Wörterbuch der Journalistik, Zugriff 26.02.2021)] Nutzer*innen in Echokammern werden permanent in ihren Ansichten einseitig bestärkt, weil sie ausschließlich mit Gleichgesinnten im Austausch sind. [https://lexikon.stangl.eu/30157/echokammer-effekt (Stangl, Werner: Stichwort: Echokammer-Effekt. In: Online Lexikon für Psychologie und Pädagogik. Zugriff 26.02.2021)] | Im Zusammenhang mit Filterblasen steht der so genannte Echokammer-Effekt, der manchmal fälschlich auch synonym für Filterblasen verwendet wird. In Echokammern (engl. echo chamber) wird Nutzer*innen ihre eigene Meinung als Echo zurückgeworfen. Denn sie sind dort ausschließlich mit Gleichgesinnten zusammen. Personen mit anderen Meinungen verstummen angesichts dieser Übermacht und ziehen sich zurück. [http://www.researchgate.net/profile/Melanie-Magin/publication/337316528_Masslos_uberschatzt_Ein_Uberblick_uber_theoretische_Annahmen_und_empirische_Befunde_zu_Filterblasen_und_Echokammern/links/5dd16faa4585156b351bb30a/Masslos-ueberschaetzt-Ein-Ueberblick-ueber-theoretische-Annahmen-und-empirische-Befunde-zu-Filterblasen-und-Echokammern.pdf (Stark et. al., S. 3)] Im Unterschied zur Filterblase werden also in der Echokammer die eigenen Ansichten im direkten Austausch mit anderen bestätigt. Eine Echokammer ist somit ein „metaphorischer Raum, in dem Aussagen verstärkt und Störgeräusche, etwa anders lautende Meinungen, geschluckt werden“. [https://journalistikon.de/echokammer (Haim, Mario: Echokammer. In: Journalistikon. Das Wörterbuch der Journalistik, Zugriff 26.02.2021)] Nutzer*innen in Echokammern werden permanent in ihren Ansichten einseitig bestärkt, weil sie ausschließlich mit Gleichgesinnten im Austausch sind. [https://lexikon.stangl.eu/30157/echokammer-effekt (Stangl, Werner: Stichwort: Echokammer-Effekt. In: Online Lexikon für Psychologie und Pädagogik. Zugriff 26.02.2021)] |
Version vom 5. März 2021, 17:51 Uhr
Definition
Der Begriff der Filterblase (englisch: filter bubble) geht auf den US-amerikanischen Internetaktivisten Eli Pariser und sein 2011 erschienenes Buch „The Filter Bubble: What the Internet is Hiding from You“ zurück (deutscher Titel: „Filterblase: Wie wir im Internet entmündigt werden“). (Friedrich, Greta: Was ist eine Filterblase? 2019, Zugriff 26. 02.2021) Filterblasen drücken sich darin aus, dass im Internet „A unique Universe of information for each of us“, also ein einzigartiges Informationsuniversum für jede*n Nutzer*in geschaffen wird. Dieses entsteht durch die algorithmische Personalisierung von einer Suchmaschine oder von Feeds auf Social Media Plattformen, so dass Nutzer*innen nur noch selektiv Informationen und Meinungen angezeigt werden. Da die Personalisierung anhand der algorithmisch ermittelten individuellen Vorlieben erfolgt, werden mutmaßlich von vornherein die Inhalte aus dem Newsfeed herausgefiltert, die nicht den eigenen Ansichten entsprechen. Wer in solch einer Filterblase steckt, läuft Gefahr, politisch und gesellschaftlich nicht umfassend informiert zu sein und stattdessen permanent in seinen bisherigen Ansichten bestätigt zu werden. Einseitige Weltbilder und extremistische Einstellungen können sich so entwickeln bzw. verfestigen. (Geissert, Clemens: Filterblasen und Echokammern im Social Web, 2019, S. 4, Zugriff 26.02.2021)
Entstehung von Filterblasen
Als Ursache von Filterblasen sah Pariser seinerzeit Suchmaschinen, die im Internet als Inhalte-Vermittler fungieren. Suchmaschinen wie Google speichern das Such- und Surfverhalten ihrer Nutzer*innen, um ihnen bei künftigen Suchen Inhalte personalisiert vorsortiert und gefiltert anzeigen zu können. Gegenwärtig findet diese Art der Filterung auch auf Plattformen im Social Web statt, um Social Software für individuelle Nutzer*innen anzupassen. Algorithmen analysieren Profilangaben und bisheriges Nutzungsverhalten nach Inhalten, die einzelne Nutzer*innen besonders interessieren könnten. Ähnliche Inhalte werden daraufhin verstärkt in ihrem Feed angezeigt. Ausgehend von den aktiven eigenen Entscheidungen der Nutzer*innen, z.B. zum Liken eines Facebook-Posts, dem Merken eines angebotenen Produkts oder dem Abonnieren eines Twitter-Kanals, schließt der Algorithmus weiter darauf, welche Inhalte sie zukünftig verstärkt konsumieren möchten. Auf dem bisherigen Klickverhalten basieren somit auch Vorschläge für neue Kanäle zum Abonnieren oder weitere Produkte zum Kauf. Um die*den Einzelnen baut sich eine Filterblase auf, aus der „unliebsame“ Inhalte gewissermaßen herausgefiltert werden. Die Filterblase wird um so undurchlässiger, je mehr ähnliche Inhalte angeklickt werden. (Stark, Birgit et al.: Maßlos überschätzt. Ein Überblick über theoretische Annahmen und empirische Befunde zu Filterblasen und Echokammern, 2019, S. 2ff, Zugriff 26.02.2021) Pariser glaubte, dass es sich dabei um einen unbewussten Prozess handelt. Tatsächlich ist den Nutzer*innen nicht transparent, welche Annahmen die Algorithmen über sie treffen. Möglicherweise ist die Personalisierung von Suchmaschinen und Newsfeeds vielen auch gar nicht bekannt. (Geissert, S. 10)
Die Unternehmen hinter den Plattformen verfolgen mit der Personalisierung eigene Ziele: Nach dem Einloggen sollen die Nutzer*innen möglichst lange auf der Plattform gehalten werden, digitale Nutzungsdaten hinterlassen und Einnahmen über personalisierte Werbung generieren. (Montag, Christian: Filterblasen: Wie wirken sich Filterblasen unter Berücksichtigung von Persönlichkeit auf (politische) Einstellung aus? In: Baldauf, Johannes (Hrsg.): Hassrede und Radikalisierung im Netz. Der OCCI Forschungsbericht. Online Civil Courage Initiative, 2018, S. 33 Zugriff 26.02.2021)
Filterblasen und Echokammer-Effekte
Im Zusammenhang mit Filterblasen steht der so genannte Echokammer-Effekt, der manchmal fälschlich auch synonym für Filterblasen verwendet wird. In Echokammern (engl. echo chamber) wird Nutzer*innen ihre eigene Meinung als Echo zurückgeworfen. Denn sie sind dort ausschließlich mit Gleichgesinnten zusammen. Personen mit anderen Meinungen verstummen angesichts dieser Übermacht und ziehen sich zurück. (Stark et. al., S. 3) Im Unterschied zur Filterblase werden also in der Echokammer die eigenen Ansichten im direkten Austausch mit anderen bestätigt. Eine Echokammer ist somit ein „metaphorischer Raum, in dem Aussagen verstärkt und Störgeräusche, etwa anders lautende Meinungen, geschluckt werden“. (Haim, Mario: Echokammer. In: Journalistikon. Das Wörterbuch der Journalistik, Zugriff 26.02.2021) Nutzer*innen in Echokammern werden permanent in ihren Ansichten einseitig bestärkt, weil sie ausschließlich mit Gleichgesinnten im Austausch sind. (Stangl, Werner: Stichwort: Echokammer-Effekt. In: Online Lexikon für Psychologie und Pädagogik. Zugriff 26.02.2021)
Echokammern und Filterblasen im Social Web bedingen sich in der Praxis gegenseitig, wenn, wie zum Beispiel beim Instagram-Algorithmus, für die Personalisierung von Social Software zusätzlich Daten aus dem Netzwerk der Nutzer*innen verwendet werden. Der Verwendung solcher sozialen Filter liegt die Annahme zu Grunde, dass sich Menschen auch online mit Menschen vernetzen, die ihre Interessen und Vorlieben teilen (Homophilie). (Stark et. al., S. 2ff) Tauchen in den sozial gefilterten Newsfeeds digital vernetzter Nutzer*innen vorwiegend ähnliche Inhalte auf, können Echokammern entstehen. (Geissert, S. 6) Echokammern sind im Gegensatz zu Filterblasen nicht nur ein Phänomen des Internetzeitalters - sie existieren ebenfalls in der analogen Welt. Mit dem Social Web entstanden aber ganz neue Möglichkeiten, um über weite räumliche Distanzen hinweg mit Gleichgesinnten ins Gespräch zu kommen. (Montag, S. 31)
Mögliche Gefahren von Filterblasen und Echokammern
Immer wieder werden Befürchtungen laut, dass Filterblasen und Echokammern zum Tummelplatz von Extremist*innen und Verschwörungstheoretiker*innen werden. Solche Nutzer*innen fühlten sich in der Filterblase einerseits durch die Informationen bestätigt, die sie über das Internet erreichen. Andererseits könnten sie in Echokammern fälschlicherweise den Eindruck gewinnen, dass die Mehrheit der Gesellschaft auch ihrer Meinung ist. (Stark et. al., S. 4f) Diese Sorge steht auch im Zusammenhang mit Erkenntnisse darüber, dass sich Fake News über Soziale Medien deutlich schneller verbreiten als reale Nachrichten. (Montag, S. 36)
Abgesehen vom möglichen Erstarken des politischen oder religiösen Extremismus könnten sich weitere Fallstricke für die Demokratie und das gesellschaftliche Miteinander ergeben, wenn Filterblasen und Echokammern für die Meinungsbildung vieler Menschen relevant werden. Unterschiedliche Gruppen könnten sich dann in ihren Wahrnehmungen und Einstellungen immer weiter voneinander entfernen. Mit zunehmender Polarisierung drohe die gesellschaftliche Spaltung in unversöhnliche Lager, die nicht mehr zu einem demokratischen Kompromiss fähig sind. (Stark et. al., S. 4f)
Bisherige Erkenntnisse zur Verbreitung und Bedeutung von Filterblasen und Echokammern
Aktuelle Studien bescheinigen Filterblasen und Echokammern eine deutlich geringere Verbreitung und Bedeutung, als ursprünglich angenommen. Für Suchmaschinen wie Google zeigten Simulationsuntersuchungen mit vorher trainierten „Testaccounts“ mehrheitlich kaum Filterblaseneffekte: Wissenschaftler*innen werteten die Daten aus, die Nutzer*innen über ihre Suchen und Suchergebnisse via Plug-in im Browser im Rahmen des Datenspendeprojektes vor der Bundestagswahl 2017 übermittelt hatten. Dabei fanden sie kaum Unterschiede bei den Suchergebnissen unterschiedlicher Nutzer*innen, die mit den gleichen Begriffen nach Nachrichten oder Informationen zu prominenten Politiker*innen suchten. Sie schlussfolgerten, dass eher andere Faktoren entscheidend für das Ranking einer Internetseite in Suchmaschinen sind, wie etwa der Grad der Suchmaschinenoptimierung. Zunehmend in den Fokus der Diskussion um Filterblasen und einseitige Informationen aus dem Social Web ist die Eigenverantwortung der Nutzer*innen gerückt. Sie entscheiden nichtzuletzt selbst, welche Inhalte sie auf Plattformen im Social Web aktiv anklicken und teilen. Eine Untersuchung von Facebooknutzer*innen in den USA zeigte, dass die Auswahl vor allem auf Inhalte im Newsfeed fällt, die dem eigenen Weltbild entsprechen. Abgeglichen wurde dafür das Klickverhalten mit den Angaben zu der politischen Einstellung (liberal oder konservativ) im Profil. (Stark et. al., S. 5ff) Auch wird angeführt, dass die Vernetzung im Social Web viel weitreichender als in der analogen Welt und durch eher lose Verbindungen (so genannte weak ties) geprägt ist. Solche oberflächlichen Beziehungen setzen weniger Übereinstimmung voraus, so dass die Wahrscheinlichkeit steigt, dass sich im eigenen Netzwerk Personen mit ganz unterschiedlichen gesellschaftspolitischen Einstellungen befinden. Damit sind Menschen im Social Web potentiell sogar einer größeren Meinungsvielfalt ausgesetzt als in der analogen Welt. (Geissert, S. 16)
Doch auch wenn Desinformation durch Filterblasen im Social Web nach aktuellem Forschungsstand kein Massenphänomen ist, wird seitens der Forschenden immer wieder betont, dass es für eine generelle Entwarnung zu früh ist: Emotionalisierende und extreme Inhalte erreichen im Social Web deutlich mehr Reaktionen. Das katapultiert sie in den News-Feeds nach oben. (Stark et. al., S. 10f) Filterblasen und Echokammern können so tatsächlich bei der Radikalisierung von Personen eine Rolle spielen, die bereits mit extremistischen Einstellungen ins Social Web gekommen sind oder die zumindest offen für solche Inhalte sind. Es gibt bereits Angebote, die Filterblasen- und Echokammereffekten bewusst entgegenwirken sollen: Über die Plattform "Diskutier mit mir" können sich Nutzer*innen annonym mit Menschen verbinden, die eine andere Meinung haben und ins Gespräch kommen. (diskutiermitmir.de, Zugriff 26.02.2021)