Hier hat der neue Chef ausnahmsweise etwas durchdachtes getweetet. |
Zunächst zum Begriff der „Filterblase“. Dieser wird im öffentlichen Diskurs zwar oft verwendet, seine genaue Bedeutung ist jedoch nicht immer bekannt. Eli Pariser prägte den Begriff Filterblase 2011. Darunter versteht der US-Amerikaner einen, von Internetplattformen durch personalisierte Filter beeinflussten, selektiven Konsum digitaler Medien (Vgl. Pariser, 2012, 62-63). Drei Merkmale unterscheiden die Filterblase im Internet demnach von einem selbst gesteuerten Konsum von Medieninhalten. Zunächst ist die Filterblase dank Algorithmen individuell auf die User ausgerichtet. Durch die Singularität unserer eigenen Filterblase – kein anderer User sollte ein absolut identisches Profil für die Algorithmen haben – sieht Pariser die Gefahr einer Entfremdung zwischen den Menschen, welche zunehmend unterschiedliche Inhalte konsumieren. Zudem sind Filterblasen intransparent und unsichtbar. Das von den Internetplattformen erstellte Profil eines Users wird diesem nie gezeigt oder erklärt. Folglich arbeiten die Plattformen und ihre Algorithmen nur mit Annahmen über die Nutzer*innen. Die letzte Dynamik der Filterblasen ist der Eintritt in diese: dieser geschieht unfreiwillig mit dem Nutzen der Plattformen und ist nicht zu widerrufen, da die Plattformen von den Filterblasen profitieren (Vgl. Pariser, 2012, 63). Pariser befürchtet, dass die personalisierten Inhaltsanpassungen, welche Onlinedienste über Algorithmen erstellen, zu einer repetitiven „Ich-Schleife“ führen, in welcher Nutzer*innen nur gezeigt wird, was diese vermeintlich sehen wollen – basierend auf dem, was sie bereits online gesehen haben. Überraschende Ausbrüche aus einer Filterblase, wie sie in der analogen Welt passieren, sind dabei nicht vorgesehen (Vgl. Pariser, 2011, 135).
Die Filterblase passt sich also den eigenen Gewohnheiten an. Besonders auf politische Inhalte bezogen kann diese Ich-Schleife in der Filterblase zu einer Radikalisierung führen. Sie ermöglicht ein Ausblenden der politischen Gegenseiten, oder differenzierteren Berichten und Ansichten, während die eigenen Ansichten kontinuierlich durch konforme Inhalte untermauert werden.
Twitter, aber auch die anderen großen Social-Media-Plattformen, bieten die Möglichkeit der politischen Ich-Schleife, die lediglich die eigenen Ansichten bestätigt und Widersprüche ignoriert oder ihnen die Legitimität abspricht (Vgl. Potter, 2020, 9). Viele Politiker*innen und Aktivist*innen versuchen bewusst die Algorithmen der Plattform zu nutzen, um Aufmerksamkeit auf ihre Themen zu lenken, besonders mithilfe von Hashtags, über welche wiederum auf anderen Medien berichtet und diskutiert wird. Dabei benutzen nicht alle Aktivist*innen und Politiker*innen auf Twitter die Plattform zur Radikalisierung, es handelt sich dabei um eine auffällige, laute Minderheit.
Über Twitter wird Agenda-Setting betrieben, diese Aktivität erstreckt sich auf eine Vielfalt von Akteuren. Über Hashtags werden Trends gesetzt, durch Berichterstattung in anderen Medien, etwa dem linearen Fernsehen oder Radio, kommen diese Trends in der analogen Welt an. Exemplarisch hierfür steht etwa die Black Lives Matter-Bewegung, die 2013 mit dem Hashtag #BlackLivesMatter begann und sich stark über Twitter vernetzte und organisierte (Vgl. Potter, 2020, 246). 2008 nutzte das Wahlkampfteam von Barack Obama geschickt Facebook und Twitter und offenbarte damit, wie Wahlkämpfe in den kommenden Jahren geführt werden würden. Eine Spielart davon führte Donald Trump ab 2015 über Twitter zu einem Höhepunkt. In täglichen Schüben twitterte Trump gegen das politische Establishment der amerikanischen Parteien, gegen die Presse oder seine politische Konkurrenz und lobte sich parallel dazu in den Himmel. Stets begleitet von seinem Hashtag #MAGA, unter welchem sich seine Anhänger*innen vernetzten und organisierten. Viele dieser Trump-Anhänger*innen gerieten in eine Filterblase, in welcher Trumps Tweets die Grundlage bildeten. Die Politikwissenschaftlerin Claire Bond Potter bezeichnet diesen Teil der Anhängerschaft als „Political Junkies“, die auf Twitter ihre regelmäßige Dosis Trump erhielten – ungefiltert durch traditionelle Gatekeeper wie Nachrichtenredaktionen (Vgl. Potter, 2020, 269). Unterstützt wurden sie dabei von großen Mengen an Social-Bots und realen Trollen, die auf Twitter sehr aktiv sind und darauf abzielen, den Diskurs zu stören oder zu verfälschen (Vgl. Lobe, 2020, 270-271). Die Netzwerke von Trump-Unterstützer*innen dienen auch der sogenannten „Neuen Rechten“ als Plattform der Rekrutierung neuer Mitglieder, Twitter ist in die Social-Media-Strategie der rechten Aktivist*innen eingebunden: sie verstehen und nutzen die Funktionsweise der Plattform und ihrer Empfehlungsalgorithmen genauestens, um User so durch eine kontinuierliche Normalisierung extremistischer Inhalte, auf Gefühlen statt auf Fakten basierend, an ihre Bewegung heranzuführen (Vgl. Stegemann/ Musyal, 2020, 243).
Warum lässt sich Twitter für die Radikalisierung in Filterblasen nutzen? Hebt sich die Plattform dabei von den anderen großen sozialen Medien ab? Der bereits in seiner Funktion beschriebene Algorithmus ist zweifellos der Hauptgrund für die Entstehung von Filterblasen auf Twitter. Intransparent und detailgenau individualisiert zeigt er den Nutzer*innen nur, was diese, laut dem Algorithmus, sehen möchten. Es entsteht eine Schleife, in der aus dem vorher Gesehenen das zukünftig Gesehene abgeleitet wird. Zwar wissen viele Konsument*innen Sozialer Medien, dass sie von Filtermechanismen beeinflusst werden, die genauen Auswirkungen und Funktionen sind ihnen zumeist jedoch nicht bekannt (Vgl. Ovens, 2017, 17). Des Weiteren kostet es viele Benutzer*innen Überwindung, Filterblasen bewusst zu durchbrechen. Sie befürchten dabei zumeist einen Gesichtsverlust gegenüber den anderen Akteuren der Filterblase oder möchten nicht mit Inhalten in Berührung kommen, welche die eigene Ansicht nicht widerspiegeln (Vgl. Ebd., 17). Social-Media-Plattformen selbst haben Hemmungen die entmündigenden Filterblasen zumindest aufzuweichen, da die Erschaffung von Filterblasen um die User Teil des eigenen Geschäftsmodells sind.
Da sich Twitter über Werbeeinahmen finanziert, ist das Unternehmen daran interessiert, User möglichst lange auf der Website oder App zu halten. Je länger Tweets gelesen werden und je länger man mit anderen Usern interagiert, desto mehr Werbeanzeigen kann Twitter den Usern anzeigen. Dementsprechend groß sind die Hemmungen der Plattform, etwas gegen Filterblasen zu tun, selbst wenn sich dort Menschen radikalisieren. Gegenmaßnahmen könnten dazu führen, dass Nutzer*innen weniger Zeit auf Twitter verbringen, da sich die Plattform weniger wie eine Komfortzone anfühlt. Stattdessen wurden Features eingeführt, die Filterblasen und die Kontrolle der Algorithmen verstärken. Die Möglichkeit der Timelinesortierung nach den „besten Tweets“ wurde 2019 eingeführt, es ist möglich zwischen dieser und der klassischen chronologischen Sortierung auszuwählen. Diese Funktion zielt darauf ab, die durchschnittliche Zeit, die User auf Twitter verbringen, zu erhöhen. Der Algorithmus empfiehlt etwa Tweets, die von gefolgten Profilen gelikt wurden, gleichzeitig werden vermeintlich irrelevantere Tweets mit wenig Likes und Retweets in die unteren Teile der Timeline verlegt. Beim Scrollen sollen immer wieder Highlights und Entdeckungen einfließen. Die Filterblase kann so noch komfortabler gestaltet werden, denn Lückenfüller sind weiter zurückgedrängt, stattdessen gibt es noch mehr Inhalte, die einem gefallen könnten, zu entdecken. Je länger man durch die eigene Timeline scrollt, desto mehr Werbeanzeigen kann Twitter im Feed platzieren. Dies ist der Grund, warum Social-Media-Plattformen Filterblasen nur ungern durchbrechen: sie verdienen damit viel Geld. Besonders Twitter ist, als kleines Netzwerk unter den Social-Media-Giganten und einem vergleichsweise wenig profitablen Geschäftsmodell, auf die Werbeeinnahmen angewiesen. Dies könnte einer der heimlichen Hauptgründe sein, warum der Twitter-Account von Donald Trump erst im Januar 2021 gesperrt wurde, obwohl dort jahrelang Falschnachrichten und Hetze verbreitet wurden, die bei kleinen Accounts zu Sanktionen geführt hätten: die Twitter Aktivitäten des US-Präsidenten brachten der Plattform Aufmerksamkeit und neue Nutzer*innen, die dem Präsidenten auf seinem Lieblingsmedium folgen wollten.
Im Vergeich zu facebook/ Meta verdient Twitter Peanuts. Die Umsätze von Janphetamin würden den Rahmen dieser Grafik sprengen, so unterhaltsam dieser Vergleich auch wäre.
Das Grundprinzip von Twitter funktioniert ebenfalls dank Filterblasen und verschafft den Usern die Befriedigung, die sie immer wieder zum Netzwerk zurückkehren lässt – wodurch sie mit Werbung in Berührung kommen und so Twitter finanzieren. Das Zentrum von Twitter bilden Tweets und Retweets, verbunden mit dem Liken von Tweets. Wenn andere Benutzer*innen die eigenen Tweets liken und retweeten schafft dies Gratifikation (Vgl. Burgess/ Baym, 2020, 106). Die eigenen Likes und Retweets sind zudem einsehbar. Für das Interagieren mit der Plattform wird man also von dieser belohnt, in Form von Likes, Retweets und Followern. Zugleich lernt der Algorithmus mehr über die User, indem analysiert wird, was diese liken und retweeten. Durch Interaktionen auf der Plattform wird die Filterblase also perfektioniert.
Das Grundprinzip des Microbloggings, welches Twitter auszeichnet, erschwert die Differenzierung, denn dafür ist innerhalb von (mittlerweile) 280 Zeichen oftmals nicht genügend Platz. Twitter ist im deutschen Raum für seinen rauen Umgangston bekannt. Es wäre zu einfach, dies auf die Limitierungen von Tweets zu schieben. Ein gewisser Einfluss des Zeichenlimits auf den Diskurs ist allerdings möglich.
Ist Twitter also prädestiniert für die Bildung von Filterblasen? Wie Eli Pariser bereits feststellte, befindet man sich in einer Filterblase, sobald ein Twitteraccount erstellt wird – die Algorithmen der Plattform lassen sich nicht deaktivieren. Für die eigenen Daten und die Möglichkeit, einem mehr und optimiertere Werbung zu zeigen, belohnt Twitter die User mit einer stetig verbesserten Filterblase, in der vermeintlich ungewünschte Inhalte immer konsequenter ausgeblendet werden. Dabei führt nicht jede Filterblase in eine politische Radikalisierung, dass Potenzial dafür ist aber gegeben. Das Phänomen der politischen Radikalisierung im Internet ist komplexer zu begründen als mit dem Algorithmus auf einer Plattform. Dieser Algorithmus kann dazu aber einen starken Beitrag leisten.
Was kann getan werden, um die Filterblasen auf Twitter zumindest aufzuweichen? Zunächst müsste Twitter Regelverstöße auf der Plattform, wie etwa Aufrufe zur Gewalt, konsequent ahnden und sanktionieren. Außerdem sollten Social-Bots, die darauf ausgerichtet sind, den Diskurs auf der Plattform zu verzerren, schneller identifiziert und entfernt werden. Dies könnte die gefährlichsten Auswirkungen der Twitter-Filterblase zumindest abmildern. Zur Abmilderung der Filterblase besitzt auch die Politik einige Mittel, Regulationen für die großen Plattformen, die zum Beispiel Hassrede begrenzen sollen, haben Auswirkungen auf die Netzwerke (Vgl. Andres/ Slivko, 2021, 24-25). Solche Gesetzesvorgaben sind aber kompliziert und bergen das Risiko, die Redefreiheit einzuschränken. Sie sollten daher gut durchdacht und professionell umgesetzt werden. Ein weiterer Ansatz ist sogenannte „Diverse Exposure“, welche bisher durch Browsererweiterungen gewährleistet werden kann. Beispielsweise werden den Nutzer*innen dabei unter Tweets von Nachrichtenportalen Tweets zum gleichen Thema von anderen Nachrichtenportalen (mit anderer politischer Schlagseite) angezeigt (Vgl. Oolkalar et al., 2019, 20).
Zumindest auf individueller Ebene kann man versuchen sich dem Sog der Filterblase zu widersetzen. Es hilft, die eigene Nutzung der Plattform zu regulieren und die diskursive Bedeutung der Plattform, zumindest für Deutschland, nicht zu überschätzen, ohne gleichzeitig das gefährliche Potenzial der Plattform zu verleugnen.
Zwar berichten Medien gerne über das Geschehen auf Twitter, in Deutschland ist dort aber eigentlich wenig los. |
Literaturverzeichnis
Andres, Raphaela/ Slivko, Olga (2021): Combating Online Hate Speech: The Impact of Legislation on Twitter [Discussion Paper], ZEW – Leipniz Centre for European Economic Research.
Burgess, Jean/ Baym, Nancy K. (2020): Twitter – A Biography, New York: NYU Press.
Lobe, Adrian (2020): Die algorithmisch gelenkte Öffentlichkeit, in: Gross, Raphael/ Lyon, Melanie/ Welzer, Harald (Hrsg.): Von Luther zu Twitter – Medien und Öffentlichkeit, Frankfurt a. M.: Fischer, S. 263-278.
Oolkalar, Ruchi/ Reddy, Kolli Vishal/ Gilbert, Eric (2019): Pop: Bursting News Filter Bubbles on Twitter Through Diverse Exposure, in: CSCW ’19: Conference Companion of the 2019 on Computer Supported Cooperative Work and Social Computing, 2019, S. 18-22.
Ovens, Carsten (2017): Filterblasen – Ausgangspunkte einer neuen, fremdverschuldeten Unmündigkeit, in: Kommunikation@gesellschaft, Jg. 18, Beitrag 7, S. 1-25.
Pariser, Eli (2011): The Filter Bubble – What the Internet is Hiding from You, London: Penguin.
Pariser, Eli (2012): Wie wir im Internet entmündigt werden, in: Kemper. Peter/ Mentzer, Alf/ Tillmanns, Julika (Hrsg.): Wirklichkeit 2.0 – Medienkultur im digitalen Zeitalter, Stuttgart: Reclam, S. 58-69.
Potter, Claire Bond (2020): Political Junkies – From Talk Radio to Twitter, How Alternative Media Hooked Us on Politics and Broke Our Democracy, New York: Hachette.
Stegemann, Patrick/ Musyal, Sören (2020): Die Rechte Mobilmachung – Wie Radikale Netzaktivisten die Demokratie angreifen, Berlin: Econ.