top of page
AutorenbildWolfgang Gründinger

Die Filterblase – der Yeti des Internets

Aktualisiert: 14. Dez. 2020


© Philippe Semeria

Die Filterblase im Internet sorgt dafür, dass sich die Gesellschaft immer stärker fragmentiert und polarisiert, weil die Algorithmen in sozialen Medien und Suchmaschinen den Nutzer:innen nur noch das anzeigen, was die gerne lesen möchten – und damit in ihrem eigenen Weltbild bestätigt werden. Meinungen oder Fakten, die nicht ins eigene Weltbild passen, dringen gar nicht mehr durch. So lassen sich Trump, Brexit, AfD und vieles mehr erklären.

Das Problem ist nur: Die Filterblase existiert nicht. Sie ist der Yeti des Internets: Alle wollen ihn schon gesehen haben, aber niemand konnte je seine Existenz beweisen. Auch wenn das Konzept noch so plausibel klingt.

Definition: Filterblase und Echokammer In einer Filterblase (engl.: filter bubble) befindet sich jemand, wenn Informationen individuell vorgefiltert (personalisiert) werden und nur noch Informationen vorkommen, die der eigenen Weltsicht entsprechen. (…) Eine Echokammer wirkt ähnlich wie eine Filterblase und beschreibt den Effekt, dass Menschen sich in sozialen Netzwerken mit Gleichgesinnten umgeben, die sich gegenseitig in ihrer Meinung bestätigen. Damit entsteht der Eindruck, die Mehrheit teile die eigenen Ansichten, obwohl man in Wirklichkeit nur eine Minderheitsposition vertritt.  Quelle: BVDW

Ganz im Gegenteil: Der Algorithmus beispielsweise des Facebook-Newsfeeds ist geradezu darauf ausgerichtet, gegenteilige Meinungen anzuzeigen. Denn dessen Währung heißt “Engagement”: also Likes, Kommentare, Klicks, Shares. Was Interaktionen bringt, wird gepusht, weil der Algorithmus glaubt, dass diese Post beliebt ist – unabhängig vom konkreten Inhalt. Gerade kontroverse Meinungen bekommen besonders viele Interaktionen: von denjenigen, die diese Meinung teilen (in Form von Likes, Shares, “genau!”-Kommentaren…) und von denjenigen, die diese Meinung nicht teilen (in Form von Wütend-Dislikes, “alles falsch!”-Kommentaren,…). Die Annahme, der Algorithmus würde dazu führen, dass nur noch die eigene, d.h. personalisierte Meinung angezeigt wird, ist also völlig unlogisch.

Als der Autor und Aktivist Eli Pariser im Jahr 2011 das Konzept der “Filterblase” erfand, hatte er zwar einige Anekdoten, aber keine wissenschaftliche Evidenz zu bieten. Inzwischen gibt es dagegen eine ganze Reihe an Studien, die nach der Filterblase suchten – allerdings keine finden konnten. Hier eine Auswahl (danke an Christoph Kucklick für sehr wertvolle Hinweise):

  • people largely consume balanced and centrist online news. Online information behavior does not take place in filter bubbles and echo chambers (Guess 2020) 

  • „People who use social media for news … are incidentally exposed to news whilst they’re there and this boosts the amount of news that people use compared to the group that don’t use social media at all. So the group that do use social media use more and more different online news sources. … People who use search engines for news on average use more news sources than people who don’t. More importantly, they’re more likely to use sources from both the left and the right.“ (Reuters Institute, Oxford University, 2019)

  • the influence of echo chambers and filter bubbles has been severely overstated, and results from a broader moral panic about the role of online and social media in society“ (Bruns 2019)

  • Scientific evidence for the existence of filter bubbles is scant and riddled with methodological challenges. …  a real risk of the reigning filter bubble rhetoric is the development of ill-conceived prejudices against digital technologies that help to sort and order online information” (Moeller & Helberger 2018)

  • “We find that ideological segregation of online news consumption is low in absolute terms, higher than the segregation of most offline news consumption, and significantly lower than the segregation of face-to-face interactions with neighbors, co-workers, or family members. We find no evidence that the Internet is becoming more segregated over time.” (Gentzkow & Shapiro 2011)

  • „Insgesamt kommt dieser Überblick zu dem Schluss, dass die … geäußerte Furcht vor einer gesamtgesellschaftlichen Fragmentierung durch digitale Medien und einer damit verbundenen politischen Polarisierung empirisch nicht unterstützt wird“ (Rau & Stier 2019)

  • “at present there is little empirical evidence that warrants any worries about filter bubbles” (Bogesius et al. 2016)

  • “the data frequently contradict or at least complicate the “echo chambers” narrative, which has ironically been amplified and distorted in a kind of echo chamber effect” (Guess et al 2018)

  • Most studies of news use on social media have failed to find evidence of echo chambers and/or ‚filter bubbles‘… Some studies even find evidence that it increases the likelihood of exposure to opposing views“ (Fletcher & Jenkins 2019)

  • “We find no support for the idea that online audiences are more fragmented than offline audiences, countering fears associated with audience segmentation and filter bubbles.“ (Fletcher & Nielsen 2017)

  • „This work challenges the impact of echo chambers and tempers fears of partisan segregation since only a small segment of the population are likely to find themselves in an echo chamber. We argue that single media studies and studies which use narrow definitions and measurements of being in an echo chamber are flawed because they do not test the theory in the realistic context of a multiple media environment.” (Dubois & Blank 2018)

  • “use of attitude-consistent political sources is positively [!] correlated with use of more attitudinally challenging sources … exposure to highly partisan political information … does not come at the expense of contact with other viewpoints” (Garrett, Carnaham & Lynch 2011)

  • „internet penetration appears to have risen faster in countries with falling polarization“ (Boxell, Gentzkow & Shapiro 2020)

  • „We find that polarization has increased the most among the groups least likely to use the Internet and social media“ (Boxell, Gentzkow & Shapiro 2017)

  • „almost all of the polarization happens demographically in populations that use the Internet and social media less, rather than more“ (Benkler 2018)

  • “we find that online political hostility reflects the behavior of individuals predisposed to be hostile in all (including offline) contexts. Yet, because their behavior is more likely to be witnessed on public online platforms, these are perceived to induce more hostility.” (Bor & Petersen 2019)

  • “Across all eight countries surveyed and across all age groups, a minority of social media news consumers say that the news they encounter on these sites is often in line with their own views” (Pew Research Center 2018)

  • “compared to other types of news consumption, exposure to political information on social media leads to ideological moderation for most people because it increases the range of views to which they are exposed” (Barberá 2018)

  • “there is scant empirical evidence for their existence [of filter bubbles], or for the related concept of ‘echo chambers’: indeed, search and social media users generally appear to encounter a highly centrist media diet that is, if anything, more diverse than that of non-users.” (Bruns 2019)

  • Die Forschungslage ergibt überdies recht eindeutig, dass die meisten Menschen in Deutschland andersartige Meinungen durchaus wahrnehmen und sich nicht nur über das Internet (und auch dort nicht nur über eine Seite), sondern aus vielerlei Quellen informieren. (Hölig & Hasebrink 2019)

  • Trump-Sympathisanten nutzten kaum soziale Medien und informierten sich vornehmlich über den konservativen TV-Sender Fox News, was eher auf eine prominente Rolle des Fernsehens hindeutet. (Gottfried, Barthel & Mitchel 2017)

  • Google-Suche: Eine Auswertung von acht Millionen Datensätzen bei Google-Suchen im Vorfeld der Bundestagswahl 2017 hat ergeben, dass die Suchergebnisse in Bezug auf Politiker und Parteien gar nicht personalisiert waren, abgesehen vom Ortsbezug. Es ist belegt, “dass sich die allermeisten Suchergebnislisten für alle Suchbegriffe hinreichend überlappen und wir … die algorithmenbasierte Bildung und Verhärtung von isolierenden Filterblasen verneinen können“ (Krafft, Gamer & Zweig 2018)

  • Bei Google News wird sogar festgestellt, es gebe zu wenig Personalisierung: “Google News provides not enough personalisation, and instead directs its users predominantly to the same four or five prominent mainstream media news sources” (Nechushtai & Lewis 2019)

  • Twitter in Deutschland: “Die Ergebnisse werfen die Filterblasen-Theorie über den Haufen. Ganz offensichtlich sind es keine technischen Gründe, die diese Accounts einseitig nur die Fake News verbreiten lassen. Die Filterblase der Fake-News-Verbreiter ist zumindest alles andere als dicht. … Filterblasen sind in unseren beiden Beispielen nicht an der ungehinderten Verbreitung von Fake News schuld. Das genaue Gegenteil ist der Fall. In unseren beiden Beispielen können wir zeigen, dass die Filterblasen gegen die Verbreitung von Fake News wirken. Sie „schützen“ aber nicht vor Richtigstellungen.” (Seemann & Kreil 2017)  (siehe auch hier)

  • Twitter und Facebook in Deutschland: “users from both political sides still share common ground, where they show interest in general news from mostly non-partisan media sites. This speaks against separated echo chambers” (Hegelich et al. 2018)

  • Facebook in Deutschland: “No support for the echo chamber hypothesis … We could not observe partisan selective exposure neither for political camps (e.g. the right vs. the left) nor between the AfD and the remaining parties.” (Schünemann, Steiger & Kliche 2019)

Die Liste wird gerne fortgesetzt.

Klar: Es gibt unterschiedliche Lebenswirklichkeiten. Wer mit einem guten Einkommen und Hochschulabschluss in der Altbauwohnung in Berlin Prenzlauer Berg lebt, hat eine andere Lebenswirklichkeit als jemand, der alleinerziehend mit geringem Einkommen in einem Oberpfälzer Dorf wohnt. Die Freundeskreise, die Nachrichtenquellen, die Jobs und die Freizeitgestaltung unterscheiden sich. Daher: Ja, es gibt eine Filterblase. Aber die entsteht nicht online – im Gegenteil: Das Internet erweitert die Quellen, erweitert die Nachrichten, erweitert die Freundeskreise – und durchsticht die Filterblase.

Und genau darin liegt ein Problem digital vernetzter Gesellschaften: dass Unterschiede auf einmal so transparent, glasklar und hart sichtbar werden, dass Lebenswelten aufeinanderprallen. "Filter clash" nennt das der Medienwissenschaftler Bernhard Pörksen, denn auf einmal kommt es zu Konflikten, weil die bisher offline separierten Wirklichkeiten online unmittelbar aufeinanderprallen. Es ist das Gegenteil der Filterblase.

Wenn die wissenschaftliche Evidenz so eindeutig ist – woher kommt dann die Popularität der „Filterblasen“-These? Sie bietet eine scheinbar plausible Erklärung: Viele Gesellschaften polarisieren sich, zumindest scheint es so – und zeitgleich gab es einen Aufstieg der Online-News und Plattformen. Viele Liberale und Linke haben daher eine bequeme Begründung gefunden, die es ihnen leicht macht: Die Menschen sind gar nicht rechts(extrem), sondern sie leben einfach nur in ihren Online-Filterblasen und sind deswegen so! Ein gesellschaftliches Problem wird zu einem technischen Problem erklärt, und man hat einen Schuldigen gefunden.

Es gibt wichtigere Probleme: Hassrede im Netz und offline; die Verbreitung von Fake News, nicht nur, aber auch über soziale Medien als Katalysator, und die damit zusammenhängende Selbstradikalisierung – auch getrieben durch algorithmische Empfehlungssysteme; die Abwanderung von rechtsextremen Terrorgruppen in schwer überwachbare Räume, z.B. verschlüsselte Messenger. Aber Filterblasen? Nein, das ist kein Problem.


300 Ansichten0 Kommentare

Aktuelle Beiträge

Alle ansehen

Comments


Commenting has been turned off.
bottom of page