Weiterlesen mit NEWS. Jetzt testen.
Lesezeit ca. 11 Min.

Die Filterblase im Kopf


Gehirn & Geist - epaper ⋅ Ausgabe 12/2018 vom 02.11.2018

MEDIEN Halten uns Algorithmen im Internet in einer Art Blase gefangen, in die nur noch einseitige politische Informationen vordringen? Die Technik ist lediglich ein Teil des Problems – viel eher erklären extreme Positionen der Nutzer das Phänomen.


Artikelbild für den Artikel "Die Filterblase im Kopf" aus der Ausgabe 12/2018 von Gehirn & Geist. Dieses epaper sofort kaufen oder online lesen mit der Zeitschriften-Flatrate United Kiosk NEWS.

Bildquelle: Gehirn & Geist, Ausgabe 12/2018

VECTORPOCKET / GETTY IMAGES / ISTOCK

VECTORPOCKET / GETTY IMAGES / ISTOCK

Auf einen Blick: Selbst gewählte Echokammer

1 Unter Filterblasen versteht man das Phänomen, dass Menschen im Internet vor allem solche Informationen zu sehen bekommen, die ihrer politischen Einstellung entsprechen.

2 Forscher widersprechen jedoch dem Bild des Nutzers, der passiv in einer ...

Weiterlesen
epaper-Einzelheft 5,99€
NEWS Jetzt gratis testen
Bereits gekauft?Anmelden & Lesen
Leseprobe: Abdruck mit freundlicher Genehmigung von Gehirn & Geist. Alle Rechte vorbehalten.
Lesen Sie jetzt diesen Artikel und viele weitere spannende Reportagen, Interviews, Hintergrundberichte, Kommentare und mehr aus über 1000 Magazinen und Zeitungen. Mit der Zeitschriften-Flatrate NEWS von United Kiosk können Sie nicht nur in den aktuellen Ausgaben, sondern auch in Sonderheften und im umfassenden Archiv der Titel stöbern und nach Ihren Themen und Interessensgebieten suchen. Neben der großen Auswahl und dem einfachen Zugriff auf das aktuelle Wissen der Welt profitieren Sie unter anderem von diesen fünf Vorteilen:

  • Schwerpunkt auf deutschsprachige Magazine
  • Papier sparen & Umwelt schonen
  • Nur bei uns: Leselisten (wie Playlists)
  • Zertifizierte Sicherheit
  • Freundlicher Service
Erfahren Sie hier mehr über United Kiosk NEWS.

Mehr aus dieser Ausgabe

Titelbild der Ausgabe 12/2018 von GEISTESBLITZE: Sozialpsychologie: Beliebter als gedacht. Zeitschriften als Abo oder epaper bei United Kiosk online kaufen.
GEISTESBLITZE: Sozialpsychologie: Beliebter als gedacht
Titelbild der Ausgabe 12/2018 von Hirnforschung: Heckenrose im Kopf. Zeitschriften als Abo oder epaper bei United Kiosk online kaufen.
Hirnforschung: Heckenrose im Kopf
Titelbild der Ausgabe 12/2018 von Wahrnehmung: Blinde Patientin sieht noch Bewegungen. Zeitschriften als Abo oder epaper bei United Kiosk online kaufen.
Wahrnehmung: Blinde Patientin sieht noch Bewegungen
Titelbild der Ausgabe 12/2018 von Mehr als nur Wissen. Zeitschriften als Abo oder epaper bei United Kiosk online kaufen.
Mehr als nur Wissen
Titelbild der Ausgabe 12/2018 von TITELTHEMA: »Nicht alles hat unmittelbaren Nutzen«. Zeitschriften als Abo oder epaper bei United Kiosk online kaufen.
TITELTHEMA: »Nicht alles hat unmittelbaren Nutzen«
Titelbild der Ausgabe 12/2018 von Reise ins Grauen. Zeitschriften als Abo oder epaper bei United Kiosk online kaufen.
Reise ins Grauen
Vorheriger Artikel
TITELTHEMA: »Nicht alles hat unmittelbaren Nutzen«
aus dieser Ausgabe
Nächster Artikel Reise ins Grauen
aus dieser Ausgabe

... solchen Blase gefangen ist. Vielmehr suchen Menschen online ebenso wie offline aktiv die Gemeinschaft mit Gleichgesinnten.

3 Je extremer die politische Einstellung, desto enger ist die eigene Informationsblase. Ein »Durchstechen« von Meinungen der politischen Gegenseite hat offenbar keinen Effekt.

Das hört man zurzeit oft: Früher, als es das Internet noch nicht gab und die Menschen noch miteinander redeten – im Bus, beim Bäcker oder in der Eckkneipe –, wurden sie im Alltag mit allen möglichen politischen Meinungen konfrontiert. Dann aber kam das Internet und mit ihm die Algorithmen der sozialen Netzwerke. Deren oberstes Ziel ist es, dem Nutzer genau das anzuzeigen, was ihm gefällt. Deshalb schlagen sie uns vor allem solche Beiträge, Gruppen und Freunde vor, die mit unserer eigenen Einstellung übereinstimmen. Als Folge leben wir online in einer Blase, in die nur noch das vordringt, was ohnehin unseren Anschauungen entspricht. Das führt zu einer zunehmenden Spaltung der Bevölkerung, deren Bereitschaft zum Dialog verkümmert.

Die Idee geht auf den US-amerikanischen Politaktivisten und Unternehmer Eli Pariser zurück. 2011 hat er das Konzept der »Filter Bubble« in einem gleichnamigen Buch bekannt gemacht. Indem wir im Netz immer häufiger auf uns persönlich zugeschnittene Informationen erhielten, würden wir »mit unseren eigenen Vorstellungen indoktriniert«, so Pariser. Es gebe weniger Raum für zufällige Begegnungen, durch die wir lernen und Einsichten gewinnen könnten. Seitdem hat sich in der öffentlichen Diskussion die Meinung festgesetzt, dass personalisierende Algorithmen im Internet geradezu eine gesellschaftliche Gefahr darstellen.

Allein: Medienforscher sind sich nicht sicher, ob die viel beschworenen Filterblasen überhaupt im angenommenen Ausmaß existieren. Zumindest dürfte der Begriff in seiner populären Auslegung ein schiefes Bild davon zeichnen, wie Menschen das Internet nutzen – und wie sehr sich soziale Prozesse online und im analogen Alltag ähneln.

Da wäre zum einen die Annahme von Journalisten und anderen netzaffinen Gruppen, dass das Internet für die Bevölkerung die entscheidende Informationsquelle darstellt. Das mag für jüngere Menschen gelten, und der Konsum von Online-Informationen wächst tatsächlich unaufhaltsam. Die über 50-Jährigen – die immerhin rund 40 Prozent der Bevölkerung ausmachen – verbringen jedoch vor dem Fernseher deutlich mehr Zeit als im Internet, genauer gesagt viermal so viel.

Zudem ist es unwahrscheinlich, dass das Netz alle anderen Medien auf absehbare Zeit verdrängen wird. Laut Erkenntnissen der Mediennutzungsforschung sterben ältere Informationskanäle selten ganz aus. Schließlich lesen Menschen immer noch Zeitung und hören Radio, obwohl es längst das Fernsehen gibt. Auch im Zeitalter des Internets existieren weiterhin alle anderen Arten, auf denen wir mit politischen Meinungen konfrontiert werden könnten.

Ebenfalls fraglich ist, in welchem Umfang Menschen online tatsächlich eine gleichförmige, vorsortierte Umgebung vorfinden. »Es ist unbestritten, dass auf Online-Plattformen Filter zum Einsatz kommen, die etwa dazu führen, dass Nutzer personalisierte Werbung angezeigt bekommen – zum Beispiel für Produkte, über die sie sich kurz vorher im Netz informiert haben«, sagt German Neubaum von der Universität Duisburg-Essen. Der Medienpsychologe leitet eine Nachwuchsforschungsgruppe zum Thema »Digital Citizenship in Network Technologies« (zu Deutsch ungefähr: »Digitale Mündigkeit in Online-Netzwerken«). Gemeinsam mit einem Psychologen und einem Informatiker untersucht Neubaum insbesondere, wie Konformität im Internet entsteht und sich ausbreitet.

Geheimen Rechenoperationen auf der Spur

Der Einfluss von Algorithmen sei allerdings generell schwierig zu studieren, so Neubaum. Denn die großen Konzerne legen nicht offen, wie stark und nach welchen Kriterien sie den Informationsfluss zu den Nutzern ihrer Angebote steuern. Doch es gibt Versuche, den geheimen Rechenoperationen auf die Schliche zu kommen. Das Projekt AlgorithmWatch etwa widmet sich der Frage, inwieweit die Suchmaschine Google ihren Besuchern unterschiedliche Ergebnisse anzeigt. Die 2009 an-gekündigte »personalisierte Suche« des Internetriesen war für Eli Pariser nach eigenen Angaben ein Anlass, sich mit dem Thema Filterblasen zu beschäftigen.

UNSER AUTOR
Joachim Retzbach ist promovierter Psychologe und Wissenschaftsjournalist. Er arbeitet als Forschungsredakteur für das Portal »Wissenschaftskommunikation.de« und als freier Autor.

Bei AlgorithmWatch spielen Internetnutzer dem Projekt die Ergebnisse von automatisierten Google-Suchanfragen zu. »Hier zeigt sich: Ein Großteil der Google-Treffer ist über alle Probanden hinweg gleich«, erläutert Neubaum. In einer Studie zur Bundestagswahl 2017 zum Beispiel suchten die Browser der Teilnehmer für AlgorithmWatch nach Parteien und Politikern. Im Mittel waren etwa 80 Prozent der Ergebnisse identisch.

»Google nimmt zwar eine leichte Anpassung der angezeigten Ergebnisse vor, basierend darauf, was es über einen Nutzer weiß. Aber das Ausmaß, in dem das geschieht, würde ich – noch zumindest – nicht als so bedenklich bezeichnen, wie es das Konzept der Filterblase nahelegt«, so Neubaum. Der häufigste Grund für Abweichungen war, dass die Suchmaschine regionale Treffer ausgab, etwa den SPD-Ortsverband der Gemeinde des Teilnehmers bei der Suche nach »SPD«.

Etwas anders liegt der Fall bei Facebook, dem nach wie vor weltweit wichtigsten sozialen Netzwerk. Hier bekommt der Nutzer auch Dinge angezeigt, nach denen er gar nicht aktiv gesucht hat. Der Facebook-Algorithmus bewertet dabei unter anderem, welche Vorlieben man gegenüber der Seite offenbart hat, und vor allem, ob die eigenen Freunde über einen bestimmten Beitrag diskutieren oder nicht. Der entscheidende Faktor ist demnach, mit welchen Personen man online vernetzt ist und welche Beiträge diesen wichtig erscheinen. Wer auf Facebook ausschließlich politisch sehr einseitige Nachrichten angezeigt bekomme, habe dort wohl nur Menschen mit einer ähnlichen Einstellung als Freunde, meint Neubaum.

Damit eine Filterblase entsteht, müssen also zwei Dinge zusammenkommen. Algorithmen, die das Angebot auf einen Anwender zuschneiden, sind das eine. Die persönlichen Vorlieben eines Nutzers, die sich etwa in Suchanfragen, in Freundschaften, Gruppen und Aktivitäten auf sozialen Netzwerken äußern, sind aber das andere.

Dass wir jene Mitmenschen sympathisch finden, die uns ähnlich sind – im sozialen Status, in der geografischen Herkunft und eben auch in den politischen Ansichten –, ist schon lange bekannt. Hinzu kommt die menschliche Tendenz, vor allem solche Informationen aufzunehmen, die eine bereits bestehende Meinung bekräftigen. Schon immer interessierten sich Medienkonsumenten stärker für Nachrichten, die ihre eigenen Gedanken untermauern, sei es beim Lesen der Zeitung, beim Fernsehen oder nun im Netz. Der Grund dafür ist, dass wir unsere soziale Identität lieber bestätigt sehen möchten, statt diese durch unliebsame Fakten in Frage gestellt zu haben. Neu an den sozialen Medien ist lediglich, wie schnell und einfach man sich mit Gleichgesinnten vernetzen kann. Und zwar nicht nur, wenn es um seltene Hobbys oder schräge musikalische Vorlieben geht, sondern auch bei extremen politischen Positionen.

Durch diese psychologischen Mechanismen kann es passieren, dass wir uns online eine so genannte Echokammer erschaffen: einen virtuellen Raum, in dem wir nichts zu hören bekommen als das, was wir selbst mit hineinbringen. Medienpsychologe Neubaum findet den Begriff der Echokammer allerdings generell eher unpassend. Denn dieser lege nahe, dass sich ein User auch selbst politisch äußert. Umfragen zufolge ist das jedoch meist gar nicht der Fall. »Entgegen einem verbreiteten Vorurteil ist nur ein kleiner Prozentsatz der Online-Nutzer überhaupt dazu bereit, ihre politische Meinung zu äußern«, meint Neubaum. Wer die Kommentare unter Nachrichtenartikeln auf Facebook lese, könnte zu dem Schluss kommen, es handle sich um eine sehr diskussionsfreudige Plattform. Tatsächlich beteiligen sich aber 70 bis 80 Prozent der Social-Media-Nutzer selten oder nie an politischen Debatten, während ein kleiner, lautstarker Kern von etwa ein bis vier Prozent »immer« die eigene Meinung bekundet.

Diskussionsmuffel auf Facebook

Dass Facebook für die Mehrheit der Anwender kein Ort politischer Auseinandersetzung ist, zeigt auch eine Studie, die Neubaum 2018 zusammen mit Stephan Winter von der Universität Koblenz-Landau und Shira Dvir Gvirsman von der Universität Tel Aviv vorgestellt hat. Sie stellten fest, dass nur rund jeder fünfte User bereits einmal eine Freundschaft auf dem sozialen Netzwerk wegen politischer Differenzen aufgekündigt hat. Dabei ging es vor allem um Fragen mit einer moralischen Komponente, etwa zur Aufnahme von Geflüchteten. Die politische Übereinstimmung mit ihren Netzwerk-Kontakten scheint demnach für die meisten Nutzer nicht entscheidend zu sein.

KURZ ERKLÄRT: FILTERBLASEN UND ECHOKAMMERN

Unter einerFilterblase versteht man das Phänomen, dass Nutzer durch personalisierte Angebote im Internet zunehmend nur das zu sehen bekommen könnten, was ihren vorher offenbarten Präferenzen entspricht – im politischen Sinn, aber auch im Hinblick auf Werbung und Unterhaltung. Nach welchen Kriterien Web-Angebote eine solche Personalisierung vornehmen, bleibt meistens geheim.

EineEchokammer hingegen bezeichnet die Situation, dass Menschen sich online vor allem mit Gleichgesinnten umgeben. In diesem virtuellen Raum wird die eigene Meinung durch andere bestätigt, die genauso denken, während andere Standpunkte außen vor bleiben. Mit der Zeit kann das zu einer Radikalisierung der Weltanschauung führen.

UNSPLASH / ROBIN WORRALL (UNSPLASH.COM/PHOTOS/FPT10LXK0CG)


»Das Internet wird häufig dazu genutzt, andere Gedanken und Standpunkte einzuholen«
Tobias Rothmund, Universität Jena


Manche Untersuchungen sprechen dafür, dass wir im nichtdigitalen Alltag sogar viel größeren Wert als online darauf legen, uns mit Gleichgesinnten zu umgeben. Der Medienpsychologe Tobias Rothmund von der Universität Jena und seine Kollegen befragten im Jahr 2017 Menschen zur Wahrnehmung der so genannten Flüchtlingskrise. Sie wollten herausfinden, inwiefern gerade in sozialen Medien, aber auch offline politische Filterblasen existieren. Dazu erkundeten sie nicht nur die Einstellung der Teilnehmer gegenüber Geflüchteten und ihre Mediennutzungsmuster, sondern wollten auch wissen, ob sie im Alltag eher in »heterogenen« oder in »homogenen« Informationsumgebungen leben, und zwar mit folgenden Fragen: Wie häufig werden Sie mit Meinungen von Menschen konfrontiert, die sich positiv über die Aufnahme von Geflüchteten äußern? Und wie häufig mit negativen Ansichten über dieses Thema?

Die größte Gruppe (44 Prozent) waren Menschen mit heterogenem Informationsumfeld, die zumindest gelegentlich Meinungen von beiden Seiten zu hören bekamen. In einer homogenen Umgebung lebten dagegen 30 Prozent. Interessanterweise war Homogenität, also eine Art Filterblase, vor allem bei jenen Probanden verbreitet, die sich häufiger persönlich mit anderen unterhielten. Wie oft und wie lange sie Fernsehen schauten oder soziale Netzwerke nutzten, spielte keine Rolle.

»Das Bild, wonach soziale Medien ihre Nutzer zunehmend in einer Informationsblase einkapseln, ist insgesamt nicht haltbar«, argumentiert Rothmund. »Stattdessen zeigen Studien, dass das Internet häufig gerade als Mittel genutzt wird, um andere Gedanken und Standpunkte einzuholen, die man im persönlichen Umfeld oder in der eigenen Familie vielleicht nicht findet. Eine ähnliche Funktion erfüllt das Netz ja beispielsweise auch für kulturelle Angebote.«

Extremisten sind häufiger in Blasen gefangen

Rothmund und Kollegen fanden noch etwas Interessantes. Je extremer eine Person politisch eingestellt ist, desto homogener ist ihr Informationsumfeld. Das treffe insbesondere für Positionen am rechten Rand zu, so der Psychologe. »Gerade im Kontext der so genannten Flüchtlingskrise gilt: Je konservativer Menschen sind, desto eher leben sie bei diesem Thema in einer Art Filterblase, und zwar on-wie offline.«

Hierfür dürften soziale Medien dann durchaus eine Rolle spielen, wie eine Studie ergab, die Rothmund 2017 auf einem Kongress vorgestellt hat: »Wir konnten zeigen, dass innerhalb von Facebook-Gruppen zum Thema Flüchtlinge der Informationsaustausch sehr homogen verläuft.« Schuld seien aber erneut nicht die Algorithmen des Netzwerks, sondern die Tatsache, dass sich in solchen Gruppen gezielt Menschen mit einer sehr starken – und daher meist einseitigen – Meinung zusammenfänden.

Psychologisch gesehen mag eine solche uniforme Gruppe eine wichtige Funktion erfüllen. Den Nutzern geht es darum, sich gemeinsam gegen einen von ihnen subjektiv so empfundenen Missstand zu engagieren. Unter diesen Umständen ist es menschlich, nicht alle Meinungen ausgewogen zu betrachten, sondern vor allem den eigenen Ärger zu artikulieren. Auf diese Weise entwickelt man eine gemeinsame Identität.

Die Schattenseite solcher Zusammenschlüsse von eher radikal gesinnten Personen ist jedoch, dass Informationen, die innerhalb einer geschlossenen Gruppe zirkulieren, weniger hinterfragt werden. Konformität wird somit zum Nährboden für Fake News. Tatsächlich belegt eine Studie von Forschern der University of Oxford aus dem Jahr 2018, dass politisch extrem eingestellte US-Amerikaner am häufigsten Falschmeldungen auf Twitter und Facebook teilen. Die Wissenschaftler um die Informatikerin Vidya Narayanan identifizierten insbesondere die Anhänger von Donald Trump und »stramm konservative« Nutzer der beiden Netzwerke als die größten Verbreiter von Fake News.

Manche Ergebnisse stimmen noch pessimistischer. So fand ein Team um Soroush Vosoughi am Massachu-setts Institute of Technology in einer Untersuchung aus dem Jahr 2018, dass sich falsche Informationen auf sozialen Medien – zumindest auf Twitter – generell schneller ausbreiten als korrekte. Dazu analysierten die Forscher die Verbreitung von 126000 Nachrichten auf dem Netzwerk in den Jahren 2006 bis 2017. Vor allem Artikel aus dem Bereich Politik, die von sechs Organisationen unabhängig voneinander als falsch eingestuft worden waren, erreichten mehr Nutzer in kürzerer Zeit als zutreffende Meldungen. Letztere brauchten fast sechsmal so lange wie Fake News, um die Marke von 1500 Personen zu erreichen.

setts Institute of Technology in einer Untersuchung aus dem Jahr 2018, dass sich falsche Informationen auf sozialen Medien – zumindest auf Twitter – generell schneller ausbreiten als korrekte. Dazu analysierten die Forscher die Verbreitung von 126000 Nachrichten auf dem Netzwerk in den Jahren 2006 bis 2017. Vor allem Artikel aus dem Bereich Politik, die von sechs Organisationen unabhängig voneinander als falsch eingestuft worden waren, erreichten mehr Nutzer in kürzerer Zeit als zutreffende Meldungen. Letztere brauchten fast sechsmal so lange wie Fake News, um die Marke von 1500 Personen zu erreichen.

Informations-Overload begünstigt den großen Erfolg von Falschmeldungen

Rothmund zufolge offenbart sich hier sogar ein Grundproblem der digitalen Medienöffentlichkeit. »Es gibt einen extremen Informations-Overload. Daher versuchen manche Anbieter von Nachrichten mit allen Mitteln, Aufmerksamkeit zu generieren, denn dann werden Informationen eher rezipiert und weiterverarbeitet.« Ausgewogene, sachliche Meldungen seien daher prinzipiell im Nachteil gegenüber radikal oder skandalträchtig klingenden Botschaften.

Wenn also Filterblasen, obwohl sie zum großen Teil selbst gewählt sind, zur Radikalisierung beitragen können, stellt sich die Frage: Sollte man Menschen gezielt mit der Position von Andersdenkenden konfrontieren – zum Beispiel mit Hilfe von Algorithmen? Eine Studie von 2018 legt nahe, dass dies sogar kontraproduktiv sein könnte. Der Soziologe Christopher Bail von der Duke University in Durham (North Carolina) und sein Team baten Anhänger der Republikaner als auch der Demokraten, einen Monat lang auf Twitter einem Account zu folgen, der automatisiert Inhalte der politischen Gegenseite verbreitete. Nach Ablauf des Monats waren die konservativen Probanden in ihrer Einstellung deutlich weiter nach rechts gerückt. Eine ebensolche Radikalisierung der eigenen Anschauung fand sich tendenziell auch bei den Fans der Demokraten, allerdings schwächer.

Das Phänomen ist in der Medienpsychologie als »Backfire-Effekt« bekannt: Konfrontiert man Menschen mit Meinungen der Gegenseite, kann das ihre ursprüngliche Einstellung verstärken. Das gilt umso mehr für Personen mit starken politischen Überzeugungen. Denn wenn wir Positionen hören, die nicht in unser Weltbild passen, suchen wir gedanklich sofort Gegenargumente dazu. Diese wiederum festigen unsere eigene Sichtweise.

»Ganz dramatisch wäre aber die Schlussfolgerung, wir sollten alle in unseren Informationsblasen bleiben«, sagt German Neubaum. Die Studie von Christopher Bail sei zwar eindrucksvoll, man dürfe jedoch nicht vergessen, dass der Befund zunächst lediglich für Twitter Gültigkeit habe.

Außerdem verbreitete der Twitter-Bot Beiträge von Politikern, Meinungsführern und Nichtregierungsorganisationen des politischen Gegners. Die Gegenreaktion könnte wohl auch deshalb so heftig ausgefallen sein, weil die Nutzer allergisch auf prominente Vertreter des anderen Lagers reagierten – auf diese Möglichkeit weisen Bail und Kollegen in ihrer Arbeit ebenfalls hin. Wenn dagegen persönliche Bekannte für Inhalte der gegnerischen Partei werben, könnte das einen anderen Effekt haben. Auch hier läuft es darauf hinaus, dass die persönlichen Kontakte und die Art der Beziehung zu ihnen den Ausschlag gibt.

Menschen bringen ihre politische Einstellung mit in soziale Netzwerke – und schaffen sich dadurch ihre Filterblase selbst. »Wenn wir über Mediennutzung sprechen, haben wir oft das Bild eines ohnmächtigen Konsumenten im Kopf«, sagt German Neubaum. »Dabei sind wir selbst in der Verantwortung und auch in der Lage, unterschiedliche Informationsquellen zu nutzen. Wir haben es in der Hand, mit welchen Menschen und mit welchen Medien wir uns umgeben.«

QUELLEN

Bail, C. A. et al.: Exposure to Opposing Views on Social Media Can Increase Political Polarization.In: PNAS 115, S. 9216–9221, 2018

Neubaum, G. et al.: You’re a Bad Person! When Moral Violations Lead to Unfriending Behavior on Social Media. Vortrag auf der 68. Jahrestagung der International Communication Association, Prag, Mai 2018

Vosoughi, S. et al.: The Spread of True and False News Online.In: Science 359, S. 1146–1151, 2018

Weitere Quellen im Internet: www.spektrum.de/artikel/1597144