Gehasst, geliebt, gefürchtet – soziale Netzwerke polarisieren. Der französische Medienwissenschaftler Frédéric Filloux bezeichnete Facebook jüngst als die „gefährlichste Waffe gegen die Demokratie“. Und die türkische Soziologin Zeynep Tufekci stellte in der New York Times die These auf, dass YouTube „eines der mächtigsten Radikalisierungswerkzeuge des 21. Jahrhundert“ sei. Schon machen sich Stimmen breit, die Facebook und Co. dazu zwingen wollen, den Nutzern bestimmte Inhalte zu zeigen, um „ihr Programm zu diversifizieren“. Eine Schnapsidee, die man auch als Vorstufe zu einer umfassenden Zensur der Netzwerke interpretieren kann. Von Jens Berger.
Dieser Beitrag ist auch als Audio-Podcast verfügbar.
Podcast: Play in new window | Download
Facebook ist ein unauflösbares Mysterium. Viele kritische Menschen sehen Facebook vornehmlich als US-Datenkrake, die unsere Daten für die globalen Konzerne und die US-Geheimdienste ausspioniert. Diese sehen Facebook jedoch vornehmlich als Propagandawerkzeug Russlands und vor allem linksliberale Politiker und Journalisten verdammen das Netzwerk zudem als Sprachrohr der Trump-Anhänger. Die etablierten Medien wettern gegen echte und vermeintliche Fake News und werfen Facebook vor, zur Radikalisierung der Menschen beizutragen. Und in der Tat nutzen rechtsradikale Brunnenvergifter die sozialen Netzwerke sehr intensiv, um – zum großen Teil auch mit Falschmeldungen – Stimmung zu machen. Auf der anderen Seite wären sowohl der Erfolg eines Jeremy Corbyn als auch der Massenprotest der „Gelbwesten“ ohne Facebook gar nicht vorstellbar. Letztere sind binnen weniger Wochen aus einer kleinen Facebook-Gruppe entstanden und stellen heute eine Massenbewegung dar. Wenn dies nun von Medienwissenschaftlern wie Frédéric Filloux als „Gefahr für die Demokratie“ gesehen wird, muss man sich schon fragen, ob hier der Kompass nicht ein wenig verrückt ist. Um dies zu beantworten, lohnt sich ein Blick auf die zentralen Kritikpunkte.
Filterblasen sind nichts Neues
Die Algorithmen von Facebook und Co. sind apolitisch. Den Serverfarmen der Konzerne ist es egal, ob die Nutzer Katzenvideos oder rechte Hetze anklicken, weiterempfehlen oder teilen. Wichtig ist, dass sie die Netzwerke so oft und so lange wie möglich nutzen und dabei Werbeeinnahmen generieren. Nun verbringen Nutzer aber umso mehr Zeit in Netzwerken, die ihnen Inhalte präsentieren, die ihrem Weltbild entsprechen. Das ist aber kein Alleinstellungsmerkmal der sozialen Netzwerke. Welcher überzeugte Antikapitalist würde viel Zeit mit der freiwilligen Lektüre des Handelsblatts verbringen und welcher „besorgte Bürger“ würde den Artikeln der Jungen Welt größere Aufmerksamkeit widmen? Wir lesen und schauen am liebsten Inhalte, die unserem Weltbild entsprechen und es immer wieder bestätigen. Diesen Effekt nutzen auch die sozialen Netzwerke, um ihre Nutzer an sich zu binden.
Verstärkend kommen hier die Algorithmen hinzu. Wir alle kennen ja die Kauf-Empfehlungen großer Shopping-Portale – „Kunden, die dies kauften, kauften auch das“. Genau so funktioniert – verkürzt betrachtet – der Algorithmus von Facebook und Co. Der Nutzer kriegt vor allem Inhalte vorgesetzt, die seinem Nutzungsverhalten und dem Nutzungsverhalten ähnlicher Nutzer entsprechen. Wenn Sie also beispielsweise Facebook verraten haben, dass sie eine 50-jährige Frau aus Berlin sind, die die NachDenkSeiten, Telepolis und die Anstalt mag, kriegen Sie mit großer Wahrscheinlichkeit vor allem Inhalte angezeigt, die anderen Frauen ihres Alters gefallen haben, die ähnliche Präferenzen haben wie sie. Je aktiver man in diesen Netzwerken ist, desto „präziser“ werden dabei die Empfehlungen der Algorithmen und irgendwann geht die Wahrscheinlichkeit gegen Null, dass sie als progressive Frau in den besten Jahren Inhalte angezeigt bekommen, die fast ausschließlich von jungen rechten Männern gelesen und empfohlen werden. Das nennt sich dann in der Medienwissenschaft „Filterblase“. Und wenn sie ihre Nachrichten nur noch über soziale Netzwerke beziehen, kann es vorkommen, dass ihnen ihre „Filterblase“ nicht mehr nur noch wie ein Ausschnitt aus dem gesamten politischen und publizistischen Spektrum vorkommt. Progressive Nutzer denken dann gerne, das ganze Volk sei gegen eine private Altersvorsorge und rechte Nutzer sind überzeugt, ganz Deutschland habe kein anderes Problem als Asylmissbrauch.
Auch das ist aber kein Alleinstellungsmerkmal. Seit 15 Jahren weisen die NachDenkSeiten darauf hin, dass vor allem die etablierten Medien nur einen kleinen Teil des Spektrums abbilden, bestimmte Themen gar nicht erst aufgreifen und bei anderen Themen erstaunlich gleichgeschaltet wirken. Auch mit der Meinungspluralität im Fernsehen ist das so eine Sache. Abseits des Netzes haben wir seit langer Zeit eine große Filterblase, die uns tagtäglich beeinflusst und uns auch von wichtigen Meinungen und Argumenten abschneidet, die dann in den alternativen Medien ihren Platz finden (müssen). Der große Unterschied zu Facebook und Co. ist, dass diese große Blase nicht auf unseren Präferenzen oder den Präferenzen von Gleichgesinnten beruht, sondern vorgegeben ist – vorgegeben von den Medienkonzernen und von der Politik. Fragt sich, was demokratischer ist.
Intellektueller Inzest
Auch wenn Filterblasen beileibe kein Alleinstellungsmerkmal der sozialen Netzwerke sind, sind sie dennoch ein Problem. Sie schotten ihre Insassen nämlich von den Argumenten der Gegenseite ab und führen so zu einer Art intellektuellen Inzest. Dies ist bei AfD-Anhängern zu beobachten, die sich fast nur noch in „ihren“ Gruppen auf Facebook aufhalten, dort gezielt Links aus dem rechten Netz zugespielt bekommen, sich radikalisieren und nicht mehr für Argumente von „draußen“ zu erreichen sind. Dies trifft aber auch auf wirtschaftsliberale FDP-Anhänger zu, deren Horizont nicht mehr über Handelsblatt, den Wirtschaftsteil von SZ und FAZ und die Wirtschaftswoche hinausgeht. Verstärkt wird der intellektuelle Inzest durch den echten oder simulierten Herdentrieb – hier spricht man dann von einer „Echokammer“. Natürlich haben Nutzer, denen stetig die gleichen Inhalte vorgesetzt werden, ein ähnliches Weltbild und bestätigen sich gegenseitig. Man kommt schlichtweg an Menschen, die in ihrer Echokammer verankert sind, nicht mehr heran – das gilt sowohl für den Facebook nutzenden AfD-Anhänger beim Thema Asyl als auch für den FDP-Anhänger, der sich sein Weltbild über den Wirtschaftsteil von SZ und FAZ bildet. Versuchen Sie doch mal einem Exemplar dieser Gattung zu erklären, warum die private Altersvorsorge ein Holzweg ist; viel Spaß und vor allem Ausdauer.
Im Zweifel: Finger weg!
So klar die Analyse des Problems auch sein mag; eine einfache Lösung scheint nicht in Sicht. Die nun vorgeschlagene „Zwangsdiversifizierung“ der Filterblase ist dabei sogar mehr als eine bloße Schnapsidee. Einerseits ist es naiv anzunehmen, dass ein gefestigtes Weltbild schon dadurch erschüttert werden könnte, wenn man nur in Kontakt mit anderen Meinungen und Argumenten kommt. Das wäre dann doch ein wenig zu einfach.
Viel entscheidender ist daher die Frage, wer die Auswahl treffen soll, mit welchen Inhalten die Filterblasen aufgebrochen werden sollen. Es ist ja eher unwahrscheinlich, dass man vorhat, linksliberale Communities nun mit Artikeln rechter Hetzblogs zu fluten. Es ist vielmehr zu vermuten, dass der Kampf gegen Filterblasen eigentlich ein trojanisches Pferd der Medienkonzerne und meinungsbildender Stiftungen ist. Da die demokratiegefährdenden Symptome paradoxerweise nicht in der Mitte, sondern nur an den Rändern gesucht werden, dürfte die vermeintliche Medizin dann sicherlich ja in der Mitte zu finden sein. Dies könnte man dann als staatsnahe Propaganda oder auch als Vorstufe zur Zensur betrachten; ein sehr gefährlicher Ansatz. Facebook und Co. sollen also letztendlich die Filter einbauen, die in den Köpfen der Medienmacher schon heute ihr Werk tun.
Aufklärung wäre der bessere Weg
Dabei wäre es doch vielversprechender, man würde den Menschen die Werkzeuge mit an die Hand geben, die ihnen helfen, Medien, soziale Netzwerke und die damit zusammenhängenden Algorithmen besser zu verstehen. Die fehlende Medienkompetenz ist ein riesiges Problem, gegen das viel zu wenig unternommen wird. Wenn Menschen wissen, dass ihre Filterblase kein Abbild des gesamten Argumentationsspektrums ist und zahlreiche Meldungen gar nicht bis zum Nutzer vordringen lässt, wissen sie auch die sozialen Netzwerke besser einzuordnen und können kritischer mit ihnen umgehen. Von Seiten der Politik und der Medienkonzerne wirft dies jedoch ein Folgeproblem auf: Da die Filterproblematik der analogen und etablierten Medien ja durchaus vergleichbar mit der Problematik in den sozialen Netzwerken ist, würden mündige und kritische Nutzer ihre neue Sichtweise der sozialen Netzwerke auch auf die analogen und etablierten Medien übertragen. Der damit einhergehende – faktisch ja längst vollzogene – Verlust des Meinungsmonopols des Establishments soll aber auf Teufel komm raus hinausgezögert werden.
Dies führt zu folgenden abschließenden Fragen: Genießen nur etablierte Medien den Schutz der Pressefreiheit oder gilt er auch für soziale Medien? Gilt die Pressefreiheit eigentlich auch für Algorithmen? Wäre ein Eingriff in die Algorithmen ein Eingriff in die Pressefreiheit? Wenn man all diese Fragen mit einem – wenn auch nicht klaren – „ja“ beantwortet, dann wäre ein erzwungener Eingriff in die Algorithmen der sozialen Netzwerke ein Eingriff in die Pressefreiheit.
Titelbild: MichaelJayBerlin/shutterstock