Die Videoplattform TikTok ist unter jungen Nutzer*innen sehr beliebt, auch weil sie zu Interaktionen und zur Gestaltung eigener Inhalte einlädt. Dabei kommen Nutzer*innen auch mit extremistischen Inhalten in Kontakt, ohne dass dafür eine aktive Suche erforderlich ist. Nader Hotait forscht zur Verbreitung von extremistischen Inhalten auf der Videoplattform, im Interview gibt er Einblicke in die Ergebnisse seiner Untersuchung.
Götz Nordbruch:
Sie beschäftigen sich in Ihrer Forschung mit der Rolle der Video-Plattform TikTok in Radikalisierungsprozessen. Was unterscheidet TikTok von anderen Social-Media-Plattformen?
Nader Hotait:
Die Kurzvideo-Plattform TikTok wurde 2016 unter dem Namen Douyin von der chinesischen Firma ByteDance gegründet. Ein Jahr später öffnete sich TikTok dem Weltmarkt und übernahm die Plattform musical.ly. Bereits 2021 feierte die Plattform über eine Milliarde Nutzer*innen, bis Ende 2022 kam eine halbe Milliarde hinzu. In nur sechs Jahren gelang es TikTok, fast ein Drittel der weltweiten Internetnutzer*innen zu erreichen. Die Plattform hat also eine enorme Reichweite.
Und auch in demografischer Hinsicht ist die TikTok-User-Base bemerkenswert: Zwei Drittel der Nutzer*innen sind jünger als 30 Jahre, knapp 30% wiederum jünger als 18 Jahre. Damit sind die Nutzer*innen von TikTok im Schnitt jünger als jene vergleichbarer Plattformen wie Twitter oder Instagram. Auch interagieren TikTok-Nutzer*innen über Kommentare, Weiterleitungen, Gefällt-Mir und anderen Reaktionsformen im Vergleich mit anderen Plattformen häufiger mit Inhalten. Kurzum: TikTok-Nutzer*innen sind zahlreich, jung und aktiver als auf anderen sozialen Medien.
Götz Nordbruch:
Was macht denn die Plattform aus Ihrer Sicht gerade für jüngere Nutzer*innen interessant?
Nader Hotait:
Ein Aspekt ist sicherlich die Benutzeroberfläche und die vielseitigen Interaktionsmöglichkeiten, die TikTok bietet. Die Benutzeroberfläche ist recht simpel, im Mittelpunkt steht die sogenannte For-You-Page. Hier werden neue Videos vorgeschlagen, die man durchstöbern, liken, teilen und kommentieren kann. Nutzer*innen können die Kommentare unter ihren Videos als grafische Elemente in Videoantworten nutzen. Aus Videoinhalten der Plattform können entweder „duets“ oder „stitches“ erstellt werden. Sie erlauben es, Videoinhalte anderer Nutzer*innen in eigene Inhalte einzubauen. Zudem lässt sich die Audiospur eines Videos für eigene Kreationen übernehmen. Diese Funktionen senken die technischen Hürden, selbst als Content Creator in Erscheinung zu treten, und befördern wechselseitige Interaktionen. Diese Art der Videonutzung wurde mittlerweile auch von anderen sozialen Medien kopiert.
Trotzdem hat gerade TikTok in den letzten Jahren bei Jugendlichen weltweit einen regelrechten Boom erlebt. Dabei hat sich der Umgang mit TikTok von einer bloßen Unterhaltungs-App zu einem eigenständigen Diskursraum entwickelt, der eine Vielzahl von Funktionen und Möglichkeiten für junge Nutzer*innen bietet. Jugendliche nutzen TikTok nicht nur zum Zeitvertreib, sondern auch als eine Art Suchmaschine, um Inhalte zu entdecken, die ihren Interessen und Vorlieben entsprechen. Es entwickeln sich eigene, interne Diskurse und Trends, die mit Themen der analogen Welt nicht sehr viel zu tun haben müssen, aber von großer Relevanz für die Beteiligten sind.
Götz Nordbruch:
In Diskussionen um Social-Media-Plattformen wird auch auf kommerzielle Interessen von Content-Creator*innen hingewiesen.
Nader Hotait:
Das ist ein wesentlicher Aspekt. Durch Funktionen wie das Live-Streaming lässt sich Geld verdienen, indem Zuschauer*innen beispielsweise zu Spenden aufgerufen werden. Diese Monetarisierungsoptionen schaffen einen neuen Handlungsmodus, der problematisch sein kann, weil er dazu verleitet, immer extremeren und sensationslüsternen Inhalt zu produzieren, um mehr Zuschauer*innen und Spenden zu gewinnen. Kontroversen und Auseinandersetzungen sind ein Selling Point.
Ein Beispiel, an dem sich dieses mehr oder weniger bewusste Bedienen der Aufmerksamkeitsspirale zeigen lässt, auch unabhängig von unmittelbar finanziellen Interessen, ist die Verwendung des arabischen Wortes „Fitna“, das aus dem islamischen Kontext stammt und in Diskussionen unter muslimischen Nutzer*innen oft verwendet wird. Es bedeutet ursprünglich „Zwietracht“ oder „schwere Prüfung“ der religiösen Gemeinschaft. Wenn man „Fitna“ bei der TikTok-Suche eingibt, sieht man aber, dass es hier um ganz unterschiedliche Streitereien unter TikToker*innen geht, die mit diesem Begriff beschrieben werden und dadurch besondere Aufmerksamkeit erhalten. Und dabei bleibt es nicht bei Online-Kinkerlitzchen, mehrfach kam es aufgrund eben dieser Formate zu gewaltsamen und teils bewaffneten Auseinandersetzungen.
Götz Nordbruch:
Worin besteht denn die Besonderheit von TikTok in Bezug auf die Verbreitung von und den Kontakt mit extremistischen Inhalten? Ähnliche Inhalte werden ja auch auf anderen Plattformen gepostet.
Nader Hotait:
Es gibt bisher nur wenige Studien, die den TikTok-Algorithmus – also die Formeln, nach denen den Nutzer*innen auf der Grundlage von Nutzungsdaten bestimmte Inhalte vorgeschlagen werden – umfassend beschreiben. Allerdings gibt es einige Hinweise, dass der Algorithmus den Kontakt mit diesen Inhalten verstärkt und auch fördert.
Ich habe im Rahmen meiner Forschung im August 2022 dazu ein Selbstexperiment durchgeführt. Dabei habe ich über einen Account ausschließlich mit Kampfsport-Inhalten interagiert und bin fünf Konten im Zusammenhang mit Mixed Martial Arts (MMA) gefolgt. Konkret habe ich jedes Video mit Kampfsportbezug, das mir auf meiner For-You-Page vorgeschlagen wurde, mit einem „Gefällt mir“ markiert und anschließend ausschließlich jene Videos angeschaut, die mir von TikTok vorgeschlagen wurden. Nach einem Tag hatte ich ungefähr 900 Videos, die mir aufgrund meines Nutzungsverhaltens vorgeschlagen wurden und die ich dann inhaltlich ausgewertet habe.
Schon relativ schnell, also innerhalb der ersten Stunden der Studie, wurden mir bereits frauenfeindliche und rechtsextreme Videos vorgeschlagen, zum Beispiel ein Video, das die Wehrmacht glorifizierte. Am Ende hatte ich 25 rechte und misogyne Videos aus unterschiedlichen nationalistischen Spektren, zum Beispiel deutsch-nationalistischen, griechisch- oder türkisch-nationalistischen. Diese Videos tendierten auch dazu, Gewalt und Kriminalität zu verherrlichen. Das betraf beispielsweise Videos auf dem Spektrum der Grauen Wölfe, einer Organisation, die sowohl mit organisierter Kriminalität als auch mit dem türkischen Rechtsextremismus in Verbindung gebracht wird.
Religiös motivierte Videos waren hingegen weniger auffällig, sowohl was die Anzahl als auch den Inhalt betrifft. Interessant war aber, dass in vielen Videos „Anasheed“ verwendet wurden, also islamische a capella Gesänge oder Lieder, von denen einige auch extremistische Inhalte enthielten. Zudem gab es Akteure, bei denen ich dann im Laufe meiner Recherche herausfand, dass sie extremistische Ideologien und Aktivitäten propagieren. Anasheeds eignen sich dafür aufgrund ihres Stils und ihrer Melodien besonders, weil sie äußerst eingängig und beliebt sind. Wichtig ist aber: Die meisten dieser Videos, die Anasheeds verwenden, stehen nicht für extremistische Inhalte, werden aber auch von extremistischen Akteuren gezielt verwendet, zum Beispiel von einem Kampfsportler, der religiöse Gelehrte mit radikalen Ansichten lobpreiste und Verbindungen zu einer fragwürdigen Gruppierung in Syrien unterhielt.
Götz Nordbruch:
Wurden Ihnen denn nur thematisch ähnliche Videos vorgeschlagen, oder führt der Algorithmus auch dazu, dass den Nutzer*innen thematisch andere Videos vorgeschlagen werden, die aber inhaltlich eine ähnliche Botschaft verbreiten?
Nader Hotait:
Tatsächlich schlägt der Algorithmus auch thematisch angrenzende, aber nicht identische Videos vor. So wurden mir beispielsweise aufgrund meiner Nutzung von Kampfsportvideos zunächst auch tschetschenischstämmige Kampfsportler und schließlich Lobpreisungen von Mudschahedin im zweiten Tschetschenienkrieg vorgeschlagen. Am Ende waren es dann Videos über den tschetschenischen Präsidenten Ramzan Kadyrov. Das ist noch kein wissenschaftlicher Beleg, legt aber nahe, dass der Algorithmus diese Dynamik begünstigt.
Götz Nordbruch:
Wie müssen Videos auf TikTok gestaltet sein, um viral zu gehen?
Nader Hotait:
Das lässt sich gut am Kanal von Muslim Interaktiv zeigen, deren Aktivitäten ich für das Jahr 2021 ausgewertet habe. Die Videos, die besonders oft geschaut wurden und mit denen besonders häufig interagiert wurden, waren kurz, griffen aktuelle Ereignisse oder bekannte Jahrestage auf, die in der Zielgruppe kontrovers diskutiert wurden oder für Muslim*innen besonders relevant sind – zum Beispiel die Jahrestage der Anschläge in Hanau und Christchurch oder Rassismus in der Polizei. Tatsächlich deckt sich das auch mit dem „volkstümlichen“ Wissen, darüber, wie man auf TikTok viral geht: kurze Videos, aktuelle Trends und kontroverse Themen. Hierdurch schafft es ein Kanal wie Muslim Interaktiv, aktuelle Diskurse unter Muslim*innen äußerst schnell zu besetzen und damit auch die Deutungshoheit über diese Diskurse zu gewinnen. Auch hier wird deutlich, dass Content Creator vom Algorithmus profitieren und kontroverse und polarisierende Inhalte verbreiten können.
Götz Nordbruch:
Welche Schlüsse ziehen Sie aus diesen Ergebnissen für die Präventionsarbeit?
Nader Hotait:
Diese Forschungen sagen ja erstmal noch nichts über die Wirkungen solcher Inhalte. Wir wissen zum Beispiel wenig darüber, wie der Konsum solcher Videos konkret auf Betrachter*innen wirkt – und welche anderen lebensweltlichen oder persönlichen Faktoren die Wirkung solcher Videos beeinflussen. In unserem neuen Forschungsprojekt „Radikalisierungspotentiale auf TikTok (RaPoTik)“ an der Humboldt-Universität zu Berlin versuchen wir, diesen Zusammenhängen und der Frage nach der konkreten Wirkung nachzugehen. Wir wollen durch computergestützte und experimentelle Verfahren herausfinden, ob die Nutzung extremistischen Inhalten von TikTok eine Radikalisierung begünstigt – bisher lässt sich lediglich festhalten, dass die Nutzung von TikTok den Kontakt zu extremistischen Inhalten befördert.
Für die Präventionsarbeit sollte das aber schon Grund genug sein, um sich ernsthaft darüber Gedanken zu machen, wie sich die Sichtbarkeit von alternativen Inhalten vergrößern lässt. Die Herausforderung besteht darin, dass Gegenrede-Angebote eben oft gerade auf Differenzierungen setzen und Verkürzungen und einfache Antworten vermeiden müssen. Das steht im Widerspruch dazu, dass gerade kurze und kontroverse Videoformate besonders viral sind. Damit sind Praktiker*innen aufgrund des Algorithmus fast zwangsläufig in einem Nachteil gegenüber extremistischen Kanälen. Dennoch geht kein Weg daran vorbei, zu versuchen, die Diskurse effektiv mitzubestimmen – und zwar mindestens ähnlich schnell und mit aktuellen Bezügen, um Debatten mitzugestalten.