Vorweg: bei diesem Post handelt es sich wieder um einen Essay, den ich für die Uni geschrieben habe. Das kann man ein bisschen faul finden, aber mein Dozent fand ihn "ansprechend und differenziert dargestellt", deswegen möchte ich ihn euch nicht vorenthalten. Tatsächlich habe ich sogar das Feedback meines Dozenten eingebaut, ihr lest hier also eine bessere Version, die weniger nach Schulaufsatz klingt. Viel Spaß mit meinem Essay aus dem Seminar zu Medienkompetenz für Sozialwissenschaftler, bei dem ihr lernt, dass es sich nicht lohnt, einen Twitter-Account zu erstellen. |
Hier hat der neue Chef ausnahmsweise etwas durchdachtes getweetet. |
Um den Twitter-Algorithmus zu veranschaulichen,
muss man selbst nicht bei der Plattform angemeldet sein. Es genügt einen Tweet zu
öffnen und zu den von der Plattform empfohlenen Tweets zu scrollen. Dort werden
ähnliche Inhalte, zumeist von ähnlichen Usern, angezeigt. Dabei kann es sich um
weitere Memes, Tiervideos oder Meinungen zum Eurovision Song Contest handeln.
Oder aber um weitere politische Tweets, häufig mit einer ähnlichen Meinung, wie
der des ursprünglichen Tweets. Twitter zeigt den Benutzer*innen hier ähnliches.
In diesem Essay wird die Frage beantwortet, ob und wie Twitter für die Bildung
von Filterblasen prädestiniert ist. Dabei soll nicht nur auf die Algorithmen von
Twitter eingegangen werden, sondern auch auf weitere Funktionsweisen der
Plattform.
Zunächst zum Begriff der „Filterblase“. Dieser wird im
öffentlichen Diskurs zwar oft verwendet, seine genaue Bedeutung ist jedoch
nicht immer bekannt. Eli Pariser prägte den Begriff Filterblase 2011. Darunter
versteht der US-Amerikaner einen, von Internetplattformen durch personalisierte
Filter beeinflussten, selektiven Konsum digitaler Medien (Vgl. Pariser, 2012,
62-63). Drei Merkmale unterscheiden die Filterblase im Internet demnach von einem
selbst gesteuerten Konsum von Medieninhalten. Zunächst ist die Filterblase dank
Algorithmen individuell auf die User ausgerichtet. Durch die Singularität
unserer eigenen Filterblase – kein anderer User sollte ein absolut identisches
Profil für die Algorithmen haben – sieht Pariser die Gefahr einer Entfremdung
zwischen den Menschen, welche zunehmend unterschiedliche Inhalte konsumieren.
Zudem sind Filterblasen intransparent und unsichtbar. Das von den
Internetplattformen erstellte Profil eines Users wird diesem nie gezeigt oder
erklärt. Folglich arbeiten die Plattformen und ihre Algorithmen nur mit
Annahmen über die Nutzer*innen. Die
letzte Dynamik der Filterblasen ist der Eintritt in diese: dieser geschieht unfreiwillig
mit dem Nutzen der Plattformen und ist nicht zu widerrufen, da die Plattformen
von den Filterblasen profitieren (Vgl. Pariser, 2012, 63). Pariser befürchtet,
dass die personalisierten Inhaltsanpassungen, welche Onlinedienste über
Algorithmen erstellen, zu einer repetitiven „Ich-Schleife“ führen, in welcher
Nutzer*innen nur gezeigt wird, was diese vermeintlich sehen wollen – basierend
auf dem, was sie bereits online gesehen haben. Überraschende Ausbrüche aus
einer Filterblase, wie sie in der analogen Welt passieren, sind dabei nicht
vorgesehen (Vgl. Pariser, 2011, 135).
Die Filterblase passt sich also den
eigenen Gewohnheiten an. Besonders auf politische Inhalte bezogen kann diese
Ich-Schleife in der Filterblase zu einer Radikalisierung führen. Sie ermöglicht
ein Ausblenden der politischen Gegenseiten, oder differenzierteren Berichten
und Ansichten, während die eigenen Ansichten kontinuierlich durch konforme
Inhalte untermauert werden.
Twitter, aber auch die anderen
großen Social-Media-Plattformen, bieten die Möglichkeit der politischen Ich-Schleife,
die lediglich die eigenen Ansichten bestätigt und Widersprüche ignoriert oder
ihnen die Legitimität abspricht (Vgl. Potter, 2020, 9). Viele Politiker*innen
und Aktivist*innen versuchen bewusst die Algorithmen der Plattform zu nutzen,
um Aufmerksamkeit auf ihre Themen zu lenken, besonders mithilfe von Hashtags,
über welche wiederum auf anderen Medien berichtet und diskutiert wird. Dabei
benutzen nicht alle Aktivist*innen und Politiker*innen auf Twitter die
Plattform zur Radikalisierung, es handelt sich dabei um eine auffällige, laute Minderheit.
Über Twitter wird Agenda-Setting
betrieben, diese Aktivität erstreckt sich auf eine Vielfalt von Akteuren. Über Hashtags
werden Trends gesetzt, durch Berichterstattung in anderen Medien, etwa dem linearen
Fernsehen oder Radio, kommen diese Trends in der analogen Welt an. Exemplarisch
hierfür steht etwa die Black Lives Matter-Bewegung, die 2013 mit dem Hashtag
#BlackLivesMatter begann und sich stark über Twitter vernetzte und organisierte
(Vgl. Potter, 2020, 246). 2008 nutzte das Wahlkampfteam von Barack Obama
geschickt Facebook und Twitter und offenbarte damit, wie Wahlkämpfe in den
kommenden Jahren geführt werden würden. Eine Spielart davon führte Donald Trump
ab 2015 über Twitter zu einem Höhepunkt. In täglichen Schüben twitterte Trump
gegen das politische Establishment der amerikanischen Parteien, gegen die Presse
oder seine politische Konkurrenz und lobte sich parallel dazu in den Himmel.
Stets begleitet von seinem Hashtag #MAGA, unter welchem sich seine
Anhänger*innen vernetzten und organisierten. Viele dieser Trump-Anhänger*innen
gerieten in eine Filterblase, in welcher Trumps Tweets die Grundlage bildeten. Die
Politikwissenschaftlerin Claire Bond Potter bezeichnet diesen Teil der
Anhängerschaft als „Political Junkies“, die auf Twitter ihre regelmäßige Dosis Trump
erhielten – ungefiltert durch traditionelle Gatekeeper wie
Nachrichtenredaktionen (Vgl. Potter, 2020, 269). Unterstützt wurden sie dabei
von großen Mengen an Social-Bots und realen Trollen, die auf Twitter sehr aktiv
sind und darauf abzielen, den Diskurs zu stören oder zu verfälschen (Vgl. Lobe,
2020, 270-271). Die Netzwerke
von Trump-Unterstützer*innen dienen auch der sogenannten „Neuen Rechten“ als
Plattform der Rekrutierung neuer Mitglieder, Twitter ist in die Social-Media-Strategie
der rechten Aktivist*innen eingebunden: sie verstehen und nutzen die
Funktionsweise der Plattform und ihrer Empfehlungsalgorithmen genauestens, um
User so durch eine kontinuierliche Normalisierung extremistischer Inhalte, auf
Gefühlen statt auf Fakten basierend, an ihre Bewegung heranzuführen (Vgl.
Stegemann/ Musyal, 2020, 243).
Warum lässt sich Twitter für die Radikalisierung in
Filterblasen nutzen? Hebt sich die Plattform dabei von den anderen großen sozialen Medien ab? Der bereits in seiner Funktion beschriebene
Algorithmus ist zweifellos der Hauptgrund für die Entstehung von Filterblasen
auf Twitter. Intransparent und detailgenau individualisiert zeigt er den
Nutzer*innen nur, was diese, laut dem Algorithmus, sehen möchten. Es entsteht
eine Schleife, in der aus dem vorher Gesehenen das zukünftig Gesehene
abgeleitet wird. Zwar wissen viele Konsument*innen Sozialer Medien, dass sie
von Filtermechanismen beeinflusst werden, die genauen Auswirkungen und
Funktionen sind ihnen zumeist jedoch nicht bekannt (Vgl. Ovens, 2017, 17). Des
Weiteren kostet es viele Benutzer*innen Überwindung, Filterblasen bewusst zu
durchbrechen. Sie befürchten dabei zumeist einen Gesichtsverlust gegenüber den
anderen Akteuren der Filterblase oder möchten nicht mit Inhalten in Berührung
kommen, welche die eigene Ansicht nicht widerspiegeln (Vgl. Ebd., 17). Social-Media-Plattformen
selbst haben Hemmungen die entmündigenden Filterblasen zumindest aufzuweichen,
da die Erschaffung von Filterblasen um die User Teil des eigenen
Geschäftsmodells sind.
Da sich Twitter über Werbeeinahmen finanziert, ist das
Unternehmen daran interessiert, User möglichst lange auf der Website oder App
zu halten. Je länger Tweets gelesen werden und je länger man mit anderen Usern
interagiert, desto mehr Werbeanzeigen kann Twitter den Usern anzeigen.
Dementsprechend groß sind die Hemmungen der Plattform, etwas gegen Filterblasen
zu tun, selbst wenn sich dort Menschen radikalisieren. Gegenmaßnahmen könnten
dazu führen, dass Nutzer*innen weniger Zeit auf Twitter verbringen, da sich die
Plattform weniger wie eine Komfortzone anfühlt. Stattdessen wurden Features
eingeführt, die Filterblasen und die Kontrolle der Algorithmen verstärken. Die
Möglichkeit der Timelinesortierung nach den „besten Tweets“ wurde 2019
eingeführt, es ist möglich zwischen dieser und der klassischen chronologischen
Sortierung auszuwählen. Diese Funktion zielt darauf ab, die durchschnittliche
Zeit, die User auf Twitter verbringen, zu erhöhen. Der Algorithmus empfiehlt
etwa Tweets, die von gefolgten Profilen gelikt wurden, gleichzeitig werden
vermeintlich irrelevantere Tweets mit wenig Likes und Retweets in die unteren
Teile der Timeline verlegt. Beim Scrollen sollen immer wieder Highlights und
Entdeckungen einfließen. Die Filterblase kann so noch komfortabler gestaltet
werden, denn Lückenfüller sind weiter zurückgedrängt, stattdessen gibt es noch
mehr Inhalte, die einem gefallen könnten, zu entdecken. Je länger man durch die
eigene Timeline scrollt, desto mehr Werbeanzeigen kann Twitter im Feed platzieren.
Dies ist der Grund, warum Social-Media-Plattformen Filterblasen nur ungern
durchbrechen: sie verdienen damit viel Geld. Besonders Twitter ist, als kleines
Netzwerk unter den Social-Media-Giganten und einem vergleichsweise wenig profitablen
Geschäftsmodell, auf die Werbeeinnahmen angewiesen. Dies könnte einer der
heimlichen Hauptgründe sein, warum der Twitter-Account von Donald Trump erst im
Januar 2021 gesperrt wurde, obwohl dort jahrelang Falschnachrichten
und Hetze verbreitet wurden, die bei kleinen Accounts zu Sanktionen geführt
hätten: die Twitter Aktivitäten des US-Präsidenten brachten der Plattform Aufmerksamkeit
und neue Nutzer*innen, die dem Präsidenten auf seinem Lieblingsmedium folgen
wollten.
|
Im Vergeich zu facebook/ Meta verdient Twitter Peanuts. Die Umsätze von Janphetamin würden den Rahmen dieser Grafik sprengen, so unterhaltsam dieser Vergleich auch wäre.
|
Das Grundprinzip von Twitter funktioniert ebenfalls dank
Filterblasen und verschafft den Usern die Befriedigung, die sie immer wieder
zum Netzwerk zurückkehren lässt – wodurch sie mit Werbung in Berührung kommen und
so Twitter finanzieren. Das Zentrum von Twitter bilden Tweets und Retweets,
verbunden mit dem Liken von Tweets. Wenn andere Benutzer*innen die eigenen
Tweets liken und retweeten schafft dies Gratifikation (Vgl. Burgess/ Baym,
2020, 106). Die eigenen Likes und Retweets sind zudem einsehbar. Für das Interagieren
mit der Plattform wird man also von dieser belohnt, in Form von Likes, Retweets
und Followern. Zugleich lernt der Algorithmus mehr über die User, indem
analysiert wird, was diese liken und retweeten. Durch Interaktionen auf der
Plattform wird die Filterblase also perfektioniert.
Das Grundprinzip des Microbloggings, welches Twitter auszeichnet,
erschwert die Differenzierung, denn dafür ist innerhalb von (mittlerweile) 280
Zeichen oftmals nicht genügend Platz. Twitter ist im deutschen Raum für seinen
rauen Umgangston bekannt. Es wäre zu einfach, dies auf die Limitierungen von Tweets
zu schieben. Ein gewisser Einfluss des Zeichenlimits auf den Diskurs ist
allerdings möglich.
Ist Twitter also prädestiniert für die Bildung von
Filterblasen? Wie Eli Pariser bereits feststellte, befindet man sich in einer
Filterblase, sobald ein Twitteraccount erstellt wird – die Algorithmen der
Plattform lassen sich nicht deaktivieren. Für die eigenen Daten und die
Möglichkeit, einem mehr und optimiertere Werbung zu zeigen, belohnt Twitter die
User mit einer stetig verbesserten Filterblase, in der vermeintlich
ungewünschte Inhalte immer konsequenter ausgeblendet werden. Dabei führt nicht
jede Filterblase in eine politische Radikalisierung, dass Potenzial dafür ist
aber gegeben. Das Phänomen der politischen Radikalisierung im Internet ist
komplexer zu begründen als mit dem Algorithmus auf einer Plattform. Dieser
Algorithmus kann dazu aber einen starken Beitrag leisten.
Was kann getan werden, um die Filterblasen auf Twitter
zumindest aufzuweichen? Zunächst müsste Twitter Regelverstöße auf der
Plattform, wie etwa Aufrufe zur Gewalt, konsequent ahnden und sanktionieren.
Außerdem sollten Social-Bots, die darauf ausgerichtet sind, den Diskurs auf der
Plattform zu verzerren, schneller identifiziert und entfernt werden. Dies
könnte die gefährlichsten Auswirkungen der Twitter-Filterblase zumindest abmildern.
Zur Abmilderung der Filterblase besitzt auch die Politik einige Mittel,
Regulationen für die großen Plattformen, die zum Beispiel Hassrede begrenzen
sollen, haben Auswirkungen auf die Netzwerke (Vgl. Andres/ Slivko, 2021, 24-25).Solche Gesetzesvorgaben sind aber
kompliziert und bergen das Risiko, die Redefreiheit einzuschränken. Sie sollten
daher gut durchdacht und professionell umgesetzt werden. Ein weiterer Ansatz
ist sogenannte „Diverse Exposure“, welche bisher durch Browsererweiterungen gewährleistet
werden kann. Beispielsweise werden den Nutzer*innen dabei unter Tweets von
Nachrichtenportalen Tweets zum gleichen Thema von anderen Nachrichtenportalen
(mit anderer politischer Schlagseite) angezeigt (Vgl. Oolkalar et al., 2019, 20).
Zumindest auf individueller Ebene kann man versuchen sich
dem Sog der Filterblase zu widersetzen. Es hilft, die eigene Nutzung der
Plattform zu regulieren und die diskursive
Bedeutung der Plattform, zumindest für Deutschland, nicht zu überschätzen, ohne
gleichzeitig das gefährliche Potenzial der Plattform zu verleugnen.
|
Zwar berichten Medien gerne über das Geschehen auf Twitter, in Deutschland ist dort aber eigentlich wenig los.
|
Literaturverzeichnis
Andres,
Raphaela/ Slivko, Olga (2021): Combating Online Hate Speech: The Impact of
Legislation on Twitter [Discussion Paper], ZEW – Leipniz Centre for European
Economic Research.
Burgess,
Jean/ Baym, Nancy K. (2020): Twitter – A Biography, New York: NYU Press.
Lobe, Adrian (2020): Die algorithmisch gelenkte
Öffentlichkeit, in: Gross, Raphael/ Lyon, Melanie/ Welzer, Harald (Hrsg.): Von
Luther zu Twitter – Medien und Öffentlichkeit, Frankfurt a. M.: Fischer, S.
263-278.
Oolkalar,
Ruchi/ Reddy, Kolli Vishal/ Gilbert, Eric (2019): Pop: Bursting News Filter
Bubbles on Twitter Through Diverse Exposure, in: CSCW ’19: Conference Companion
of the 2019 on Computer Supported Cooperative Work and Social Computing, 2019,
S. 18-22.
Ovens, Carsten (2017): Filterblasen – Ausgangspunkte einer
neuen, fremdverschuldeten Unmündigkeit, in: Kommunikation@gesellschaft, Jg. 18,
Beitrag 7, S. 1-25.
Pariser,
Eli (2011): The Filter Bubble – What the Internet is Hiding from You, London:
Penguin.
Pariser, Eli (2012): Wie wir im Internet entmündigt werden,
in: Kemper. Peter/ Mentzer, Alf/
Tillmanns, Julika (Hrsg.): Wirklichkeit 2.0 – Medienkultur im digitalen
Zeitalter, Stuttgart: Reclam, S. 58-69.
Potter,
Claire Bond (2020): Political Junkies – From Talk Radio to Twitter, How
Alternative Media Hooked Us on Politics and Broke Our Democracy, New York:
Hachette.
Stegemann, Patrick/ Musyal, Sören (2020): Die Rechte Mobilmachung
– Wie Radikale Netzaktivisten die Demokratie angreifen, Berlin: Econ.