Filter Bubbles – und wieso du auch in einer bist!
Social Media gibt uns die Möglichkeit uns sozial und kreativ auszuleben. Das Angebot an Inhalten scheint fast grenzenlos. Aber ist das wirklich so? Apps wie TikTok, Instagram und co. verwenden Algorithmen, die das Erlebnis bei der Verwendung an die Interessen und das Klickverhalten von User_innen anpassen. Das ist zwar praktisch, kann aber schnell gefährlich werden.
Was sind Filter Bubbles und wie funktionieren sie?
Ich werde die Funktion solcher Algorithmen anhand der von TikTok und Instagram erklären.
Wenn mensch sich zum ersten Mal TikTok runterlädt und sich neu anmelden muss, wird mensch nach dem Registrieren nach den eigenen Interessen gefragt.
Danach, wenn es zu Interaktionen mit Inhalten kommt, werden Likes, Kommentare und geteilte Inhalte mit einbezogen. Geteilte Inhalte sind nicht nur Videos, die du mit deinen Freund_innen teilst, sondern auch die, die du selbst postest. Ebenfalls werden Inhalte von Accounts, denen du folgst, miteinbezogen.
Ab diesem Zeitpunkt, spielt TikTok Videos, die diesen Kriterien entsprechen bzw. sehr ähnlich sind, sozusagen Videos, die dir gefallen könnten.
Was der Algorithmus ebenfalls macht, ist, dass er Videos als besonders relevant einstuft, die komplett angeschaut wurden. Daraus folgt natürlich, dass solche Inhalte noch einmal mehr angezeigt werden als die, auf die du einen Like gegeben hast, auf denen du aber nur für zehn Sekunden geblieben bist.
Eine Besonderheit bei TikTok ist es, dass der Algorithmus die Follower_innenanzahl eines Accounts nicht beachtet. Das heißt bekannte Content Creators haben zwar eine größere Reichweite, jedoch werden ihre Videos deswegen neuen User_innen nicht mehr gezeigt als die von Creators mit einer geringen Follower_innenzahl. Die Idee dahinter war, Filter Bubbles zu vermeiden.
Auf der For-You-Page werden dir dann deinen Interessen entsprechende Inhalte von Personen gezeigt, denen du noch nicht folgst. Vergleichbar ist die For-You-Page mit der Explorer-Page von Instagram.
Der Algorithmus von Instagram funktioniert ähnlich. Und zwar wird vor allem auf die Beziehung zwischen Benutzer_in und Creator geachtet. Es geht darum, ob mensch sich folgt, miteinander chattet, wie oft ihr gegenseitig auf eure Profile schaut und um die Dauer dieser Interaktionen. Personen mit deren Content du öfter interagierst, oder mit denen du oft schreibst, werden an der Spitze deines Feeds angezeigt. Eine weitere interessante Eigenschaft des Instagram Algorithmus ist es, dass er dir, wenn du nicht allzu oft die App öffnest, nur die relevantesten Inhalte zeigt. Das heißt deine Familie und deine Freund_innen werden von Unternehmen aus dem Feed verdrängt. Wenn du oft auf Instagram bist, das aber immer nur für eine kurze Zeit, dann wird der Algorithmus dir fast nur Posts von Freund_innen und Familie zeigen. Interessant, nicht?
Was ist jetzt also das Schlechte an Filter Bubbles?
Obwohl es angenehm ist, die eigenen Interessen in die Hand gelegt zu bekommen, bringen diese Algorithmen auch ernstzunehmende Gefahren mit sich. Filterblasen wirken harmlos, jedoch führen sie zu einseitiger Information, denn mensch wird nicht mehr mit anderen Meinungen und Sichtweisen konfrontiert. Vor allem für junge Leute, deren einzige Nachrichtenquelle oft Social Media ist, entsteht dieses einseitige Bild von der Welt. Wer sich in einer Filter Bubble bewegt, liest immer dieselbe Meinung. In einigen Fällen führt das dazu, dass eine lautstarke Randgruppe als viel größer wahrgenommen wird, als sie eigentlich ist. Richtig gefährlich wird es, wenn von diesen gezielte Desinformations- und Hetzkampagnen durchgeführt werden. Mit einer vergleichsweise kleinen Menge von Leuten, die organisiert und koordiniert arbeiten, kann mensch Trends in Gang setzen und die Algorithmen von Social Media
Plattformen manipulieren, sodass es aussieht, als wären diese ein Produkt der mehrheitlichen Meinung. Hinter Kommentaren, die beschimpfen, beleidigen oder herabwürdigen steckt also oft eine kleine Minderheit, die mithilfe des Algorithmus größer wirkt. Das kann auch „unabsichtlich“ passieren, wenn junge Leute in Spaces geraten, die auf unrealistischen Idealen bezüglich Schönheit oder Lifestyle basieren. Wenn ich zum Beispiel Content zur „Buccal Fat Extraction“ sehe und das Video lange genug anschaue, wird mein Feed immer mehr Inhalte zu diesem Thema und zu verwendeten Hashtags zeigen. Derartige Inhalte fördern ein stark idealisiertes Körperbild. Das gilt auch für Lifestyle-Themen wie Reisen, Fitness, Ernährung, Identität, oder Umgang mit Geld. Das kann dazu führen, dass Personen denken, die Mehrheit der Menschen reist alle zwei Wochen nach Dubai oder geht jeden Tag ins Fitnessstudio, was wiederum dazu führt, dass sie sich dazu bewegt fühlen diesen Lifestyle zu adaptieren, auch wenn es ihnen ihre Situation nicht erlaubt. Dieser passive Druck ist extrem schlecht für die mentale Gesundheit, vor allem für junge Leute.
Allgemein geht es darum, dass Nutzer_innen durch Filter Bubbles leicht in die Nähe von extremen Inhalten kommen. Viele Leute, die TikTok benutzen sind jünger und somit meistens anfälliger dafür, Aussagen nicht zu überprüfen und sie schließlich einfach als Wahrheit hinzunehmen. Gerade in Krisenzeiten fällt auf wie viel Einfluss Algorithmen auf die Meinung und das Verhalten von User_innen haben. Ebenso ist es möglich Wahlen mithilfe dieser zu manipulieren.
Kann mensch Filter Bubbles umgehen?
Wirklich ausbrechen aus einer Filterblase ist schwierig, da mensch auf den jeweiligen Plattformen den Algorithmus automatisch hat und nicht „ausschalten“ kann. Was mensch jedoch schon machen kann, ist willkürlich Personen folgen und Inhalte anschauen, mit denen mensch sich sonst nicht so viel beschäftigt.
Informationen sollten auch regelmäßig überprüft werden, vor allem bei emotionaleren Themen ist mensch schnell verleitet auch Fake-News zu glauben. Mensch kann zum Beispiel mit der Website „newstral.com“ vergleichen, was mehrere Zeitungen (deren online Portale) über ein gewisses Thema schreiben.
Soweit es möglich ist, kann mensch auch die Personalisierung in den Einstellungen der jeweiligen Applikation ausschalten. Weiters sollte mensch Cookies und Drittanbieter-Cookies regelmäßig löschen. Wenn wir jetzt über allgemeine Maßnahmen reden, dann ist auf jeden Fall zu erwähnen, dass Kindern und Jugendlichen schon in der Schule Medienkompetenz und digitale Souveränität vermittelt werden sollten. Auch in Anbetracht auf ältere Personen, die nicht mit digitalen Medien groß geworden sind, sollte es mehr Informationsangebote geben, die auf sie zugeschnitten sind.
Schlussendlich muss ich aber darauf aufmerksam machen, dass mensch erst aus einer Filterblase ausbrechen kann, wenn mensch es will. Wenn du nicht bereit bist aus deiner Komfort-Zone auszubrechen und dich mit Themen bzw. Meinungen auseinanderzusetzen, die dir nicht allzu gut gefallen, wirst du es auch nicht schaffen aus der Filter Bubble auszubrechen.
Quellen:
https://www.sortlist.de/blog/tiktok-algorithmus/
https://t3n.de/news/filterblase-766329/
https://www.rings-kommunikation.de/filterblasen-und-wie-man-sie-zum-platzen-bringt/
https://www.t-online.de/digital/internet/id_83426230/schnell-erklaert-so-funktionieren-filterblasen.html
https://www.t-online.de/digital/internet/id_83265998/recherchen-belegen-rechtsextremestimmungsmache-im-netz.html
Bild: Screenlane