Was wie ein Witz klingt, ist eine versteckte Drohung. Der Begriff „Dagestan“ wird in sozialen Netzwerken zum Hasscode – gezielt gegen queere Menschen. Und die Plattformen schauen zu. Die Kommentare sind kein harmloser Internet-Scherz. Sie sind ein subtiler, aber deutlich homophober Angriff – eine rhetorische Methode, queere Menschen online zu entmenschlichen. Die Verwendung des Landes als Code für Tod, Gewalt oder Zwangs‑„Männlichkeits‑Training“ macht die Kommentare besonders problematisch, wie Tom Wannenmacher in diesem Beitrag für Mimikama.org aufzeigt.
Nur ein Wort. Ohne Kontext. Ohne Emoji. Ohne erklärenden Zusatz. Was für Außenstehende wie eine belanglose Ortsangabe wirken mag, entpuppt sich für viele queere Creator:innen als gezielte Provokation oder schlimmer noch: als subtile Drohung. Denn der Begriff ist längst mehr als ein geografischer Verweis. Er hat sich zu einem digitalen Dogwhistle entwickelt, also einem verschlüsselten Signal für Menschen mit bestimmten Weltanschauungen – in diesem Fall queerfeindliche.
Screenshot: thetab / TikTok | Dagestan: Wie Kommentare queere Menschen bedrohen
Hinter dem Begriff „Dagestan“ steckt ein codierter Angriff auf Identität und Menschenwürde. Die unausgesprochene Botschaft lautet: „Du solltest dorthin, wo Menschen wie du nichts wert sind.“ Oder noch deutlicher: „Was du bist, muss umerzogen, ausgetrieben, unterdrückt werden.“
Die Täter:innen bedienen sich dabei eines perfiden Tricks. Sie schreiben nichts Beleidigendes im klassischen Sinne. Kein Schimpfwort. Kein direkter Angriff. Aber jeder, der die Bedeutung kennt und viele queere Menschen tun das mittlerweile – spürt sofort, was gemeint ist.
Diese Art der Kommunikation zielt darauf ab, Verunsicherung zu erzeugen, ohne sofort gegen die Plattformregeln zu verstoßen. Genau darin liegt die perfide Stärke dieser Strategie. Hass wird als Nebensatz getarnt. Gewalt als Geografie. Die Drohung als Meme.
Ein Satz aus dem Käfig: Wie der Begriff entstand
Der Ursprung des Begriffs liegt in einem vermeintlich harmlosen Interviewausschnitt. Im Podcast sagte der russische MMA-Kämpfer Islam Makhachev „If you want your son high level wrestling – send him two, three years Dagestan and forget.““ Sinngemäß bedeutet das: „Wenn du willst, dass ein Junge ein Mann wird, schick ihn für zwei, drei Jahre nach Dagestan.“
@pinknews Scrolling through TikTok, you may have noticed a trend of people commenting ‘Dagestan’ on users’ videos. Many creators have begun calling out the fact that a lot of the time, the word is being commented on queer people’s posts, or specifically men who don’t conform to traditional ‘masculine’ stereotypes. Dagestan is a republic in the North Caucasus region in Russia, notorious for the violent persecution of LGBTQ+ people. The targeting of queer people in the area has been documented from crisis groups such as ‘The North Caucasus SOS’ who have reported instances where queer people have been physically @bused, unjustly detained and threatened with fabricated criminal charges. The region became a big talking point after MMA fighter and Dagestani native Islam Makhachev, recommended an interviewer send their son to Dagestan, saying: “If you want your son, high level wrestling, send him two, three year Dagestan and forget”. Users then began commenting this phrase on queer people’s videos, and some queer creators are now branding the trend as homophobic. After receiving the comment ‘Dagestan’ on one of his videos, one queer creator reacted to it and said “He thinks, commenting on my page, that I should be sent somewhere, where I would be tortured and potentially killed, is a normal thing to do”. Another branded it as a ‘dogwhistle for bigots.’ Have you seen this trend on TikTok, and what are your thoughts? #dagestan #russia #islammakhachev #mma #lgbtqrights #queertiktok ♬ Minimal for news / news suspense(1169746) – Hiraoka Kotaro
Gemeint war damit das harte Trainingsregime, das in der russischen Kaukasusrepublik als besonders diszipliniert und männlich gilt. In der Kampfsportszene war die Aussage zunächst ein Spruch über Ausdauer, Härte und Selbstkontrolle. Nicht unüblich im martialischen Ton dieses Milieus. Doch online entwickelte sich aus diesem Satz etwas ganz anderes.
In sozialen Netzwerken wurde die Aussage schnell aus dem ursprünglichen Kontext gerissen und zur Projektionsfläche für toxische Männlichkeitsideale und queerfeindliche Fantasien umgedeutet. Aus einer lokalen Anekdote wurde ein Meme. Und aus dem Meme ein Dogwhistle. Ein codiertes Signal, das nur Eingeweihte verstehen. Die Botschaft wurde entstellt, entmenschlicht und gegen queere Menschen gerichtet. „Dagestan“ bedeutete plötzlich nicht mehr Training, sondern Umerziehung. Nicht mehr Disziplin, sondern Zwang. Die martialische Assoziation blieb erhalten, doch der Zielkontext verschob sich. Wer heute „Dagestan“ unter queere Videos kommentiert, meint nicht Sport, sondern Unterwerfung.
Die Begriffsverschiebung vollzog sich schleichend, aber gezielt. Getragen von einer Online-Subkultur, die Queerness als Schwäche und Männlichkeitsideale als Waffe begreift.
Der Kommentar, der Angst macht: Berichte von Betroffenen
Ein queerer Creator erinnert sich an den Moment, als sein harmloses Makeup-Tutorial plötzlich zur Zielscheibe wurde. „Ich dachte erst, das sei ein schlechter Scherz.“ Doch dann häuften sich die Kommentare – immer und immer wieder nur dieses eine Wort: „Dagestan“. Ohne Erklärung. Ohne Emoji. Ohne Kontext. Innerhalb weniger Stunden waren es über 50. Für Außenstehende mag das übertrieben wirken – für viele Betroffene ist es bittere Realität. Ein digitaler Lynchmob, getarnt als Running Gag.
Auch eine Creatorin aus Manchester schildert eine ähnliche Welle. Unter einem Tanzvideo sammelten sich über Nacht über 300 gleichlautende Kommentare. „Es war wie ein Angriff. Ich konnte gar nicht so schnell löschen, wie die neuen kamen“, sagt sie. Der Algorithmus machte es noch schlimmer: Je mehr Kommentare eingingen, desto sichtbarer wurde das Video – und damit auch die Attacke. Was als algorithmische Belohnung gedacht ist, wird in solchen Fällen zur Eskalationsspirale. TikTok pusht Inhalte mit viel Interaktion – auch dann, wenn diese Interaktion aus gezieltem Hass besteht.
Viele queere Creator:innen berichten von einem Gefühl der Ohnmacht. Die Kommentare sind nicht eindeutig beleidigend, lassen sich kaum moderieren und erscheinen auf den ersten Blick nicht meldewürdig. Doch gerade diese Tarnung macht sie so effektiv. „Es war, als würde ich öffentlich verachtet werden, aber so, dass niemand helfen konnte“, beschreibt eine Betroffene. Die Wirkung: Einschüchterung. Selbstzensur. Rückzug. Und genau das scheint das Ziel zu sein.
Hinweis der mimikama-Redaktion: Die hier geschilderten Szenen und Zitate basieren auf typischen, dokumentierten Erfahrungen queerer Creator:innen in sozialen Netzwerken. Sie wurden in dieser Form anonymisiert und redaktionell zusammengefasst, um exemplarisch die Dynamik der Dagestan-Kommentare zu veranschaulichen.
Die perfide Symbolik: Was wirklich gemeint ist
Dagestan ist kein ausgedachtes Symbol. Es ist ein realer Ort. Eine autonome Republik im Nordkaukasus, Teil der Russischen Föderation, gezeichnet von Armut, Machtstrukturen und religiösem Konservatismus.
Sie sehen gerade einen Platzhalterinhalt von Google Maps. Um auf den eigentlichen Inhalt zuzugreifen, klicken Sie auf die Schaltfläche unten. Bitte beachten Sie, dass dabei Daten an Drittanbieter weitergegeben werden.
Doch in queeren Online-Communities hat sich der Name längst zu einem Synonym für etwas anderes verwandelt: Angst. Für viele steht „Dagestan“ mittlerweile für einen realen Ort, an dem LGBTQ+-Personen nicht nur gesellschaftlich geächtet, sondern aktiv verfolgt werden. Menschenrechtsorganisationen wie North Caucasus SOS oder Human Rights Watch dokumentierten in den vergangenen Jahren mehrfach Fälle von Entführungen, Folter und gezielten „Säuberungen“ queerer Menschen. Nicht nur in Tschetschenien, sondern auch in angrenzenden Regionen wie Dagestan.
Wenn also jemand unter einem TikTok-Video schreibt: „Zwei Jahre Dagestan und er ist geheilt“, dann meint das keine Metapher mehr. Es ist eine digitale Drohung mit physischer Anspielung. Der Satz spielt auf reale Umerziehungspraktiken an. Menschen, die wegen ihrer sexuellen Orientierung oder Geschlechtsidentität für „abweichend“ gehalten werden, werden in Geheimgefängnissen festgehalten, misshandelt oder zwangsgeoutet. Dass solche Zustände noch immer existieren, wird im Westen oft verdrängt. Doch genau darauf zielt der Kommentartrend ab. Er nutzt das reale Leid als Drohkulisse für einen online inszenierten Spott. Die Gewalt wird so weit abstrahiert, dass sie nicht mehr wie Gewalt aussieht. Und genau das macht sie so gefährlich.
Solche Codes sind nicht neu. In extremistischen Kreisen kursierten früher Kommentare mit Begriffen wie „Gas“, „Keller“ oder „Seil“. Chiffrierte Anspielungen auf Vernichtung oder Lynchjustiz. Heute ist es „Dagestan“. Die Methode bleibt dieselbe. Die Botschaft soll verletzen, aber nicht eindeutig erkennbar sein. Es ist verdeckte Gewalt, getarnt als Witz.
Der Hass wird unter der Oberfläche gehalten. Subtil. Algorithmustauglich. Aber gezielt. Wer nicht betroffen ist, scrollt vielleicht weiter. Wer betroffen ist, weiß sofort: Hier wird nicht diskutiert. Hier wird gedroht.
Meme-Kultur oder organisierter Hass?
Die Grenze zwischen scheinbar ironischer Meme-Kultur und systematischem Hass ist oft fließend. Genau diese Ambivalenz macht den „Dagestan“-Trend so perfide. In einschlägigen Telegram-Gruppen, Reddit-Foren und toxischen Ecken der sogenannten Manosphere, einer Online-Subkultur, die toxische Männlichkeit, Frauenverachtung und Queerfeindlichkeit propagiert, häufen sich Hinweise auf gezielte Aufrufe. Nutzer werden dazu animiert, queere Videos mit „Dagestan“-Kommentaren zu fluten. Screenshots aus Foren und Discord-Servern zeigen Nutzer, die sich regelrecht damit brüsten, wie viele Creator:innen sie durch diesen „einfachen Trick“ verunsichern konnten. „Er hat sein Video gelöscht. Dagestan funktioniert“, heißt es in einem solchen Beitrag, versehen mit Lach-Emojis und Likes.
Ob eine zentrale Kampagne im engeren Sinne existiert – etwa gesteuert durch eine bestimmte Trollgruppe oder Netzwerkstruktur – lässt sich bislang nicht eindeutig belegen. Es gibt keine öffentlich bekannte Initiatorengruppe. Kein manifestiertes Koordinationszentrum. Doch der Gleichklang der Kommentare, ihr plötzlicher massenhafter Auftritt und die auffallend ähnliche Sprache deuten klar auf zumindest partielle Mobilisierung hin. In der Sprache der Onlinekultur nennt man das brigading. Eine Form der digitalen Überwältigung, bei der viele Akteure gezielt auf ein Ziel losgelassen werden. Der Effekt: Druck. Einschüchterung. Algorithmische Sichtbarkeit. Sozialer Rückzug der Betroffenen.
Hinzu kommt ein gruppendynamischer Mechanismus. Wer „Dagestan“ kommentiert, signalisiert nicht nur Zustimmung zur Botschaft, sondern auch Zugehörigkeit zu einer Szene. Es ist ein Identitätsmarker. So wie einst das Trollface oder bestimmte Emojis in rechtsaffinen TikTok-Kreisen. Wer betroffen ist, spürt das deutlich. Es geht nicht um Diskussion, sondern um Dominanz. Das Ziel ist nicht Meinungsaustausch, sondern Verstummen.
Und gerade weil die Kommentare einzeln kaum greifbar sind, entsteht bei vielen ein Gefühl der Ohnmacht. Das ist womöglich der beabsichtigte Effekt dieser digitalen Hassspielerei.
Plattformversagen: Warum TikTok & Co. nicht eingreifen
TikTok und Instagram erkennen das Problem nicht – oder wollen es nicht erkennen. Der Begriff „Dagestan“ steht auf keiner Blacklist, wird von den Moderationssystemen nicht als problematisch eingestuft und löst keine automatische Warnung aus. Für den Algorithmus ist es lediglich ein Ortsname. Ohne Kontext. Ohne Schlagwortverbindung zu Hassrede oder Diskriminierung. Diese algorithmische Blindheit ist gefährlich. Denn genau auf dieser Lücke basiert das Spiel der Täter. Sie nutzen Begriffe, die technisch unverdächtig wirken, aber emotional klar codiert sind. Was in der Praxis bedeutet: Der Hass ist da, aber er bleibt für die Plattform unsichtbar. Wer versucht, solche Kommentare zu melden, bekommt oft keine Rückmeldung.
Betroffene berichten von frustrierenden Erfahrungen mit den Supportsystemen. Die Kommentare bleiben online, Profile werden nicht gesperrt. In einigen Fällen wurden sogar queere Creator:innen selbst sanktioniert, weil sie auf die Angriffe reagierten und dabei gegen TikToks Community-Richtlinien verstoßen haben sollen. Das nennt man Silencing by System. Die Plattform schützt nicht die Opfer, sondern straft die Reaktion. Ein Schlag ins Gesicht für jene, die sich wehren wollen.
Ein Sprecher oder die Kommunikationsrichtlinie von Meta weist darauf hin, dass gemeldete Beiträge einzeln durch menschliche Reviewer:innen geprüft werden – und nur entfernt werden, wenn sie gegen die Richtlinien verstoßen. Doch das reicht nicht. Einzelprüfung greift nicht, wenn sich Hass kommentarmassenhaft verbreitet. Was gebraucht wird, sind kontextbezogene Filter, automatisierte Mustererkennung und Schulungen für menschliche Moderator:innen, um auch codierte Sprache zu verstehen. TikTok behauptet, sich gegen Hassrede zu engagieren, betont aber gleichzeitig die Bedeutung kultureller Kontextsensibilität. Ein Anspruch, der beim Begriff „Dagestan“ völlig versagt.
Dass Plattformen bei rassistischen oder queerfeindlichen Codewörtern zu zögerlich reagieren, ist kein neues Phänomen. Schon Begriffe wie „1488“ oder „Remove Kebab“ kursierten jahrelang, bevor Moderationssysteme sie erfassten.
Auch „Dagestan“ ist ein solcher Fall. Ein Test, ob Tech-Konzerne wirklich in der Lage – oder willens – sind, mit der Dynamik von Hate Speech mitzuhalten. Noch haben sie diesen Test nicht bestanden.
Wenn Witze töten können: Warum Ignorieren keine Option ist
„Dagestan“ ist keine bloße Provokation. Es ist eine verschlüsselte Drohung. Subtil genug, um durch die Algorithmen zu rutschen, aber scharf genug, um Menschen tief zu treffen. Der Begriff wirkt wie ein beiläufiger Kommentar, eingebettet in die Ästhetik der Meme-Kultur. Scheinbar ironisch. Scheinbar witzig. Und genau darin liegt seine perfide Wirkmacht. Die Hemmschwelle zur Beteiligung sinkt, weil es sich ja „nur“ um ein Wort handelt. Doch unter der Oberfläche wird ein Klima der Einschüchterung aufgebaut. Eines, das queere Sichtbarkeit systematisch untergräbt.
Einige Creator:innen begegnen der Welle aus Hass mit Galgenhumor. In einem Video etwa wird spielerisch ein „Reiseoutfit für Dagestan“ präsentiert: „Ich packe den Koffer – was zieh ich bloß an?“ Der Clip geht viral. Der Witz sitzt. Und doch erzählt er vor allem eines: von Ohnmacht. Denn Ironie ist oft nur der letzte Schutz, wenn sonst nichts mehr bleibt.
Aber Witz schützt nicht vor Wirkung. Wer heute sichtbar queer im Netz ist, lebt mit einer ständigen Bedrohung im Hintergrund. Es geht nicht nur um Beleidigungen, sondern es geht um ein Klima der Einschüchterung. Die Folgen sind real: Angst, Rückzug, psychische Erschöpfung. Manchmal bedeutet ein einziger Kommentar das Ende der eigenen Onlinepräsenz.
Die Täter:innen hingegen bleiben fast immer anonym. Sie agieren im Kollektiv, getarnt durch pseudonyme Accounts. Oft verstärkt durch Bot- oder Spamnetzwerke. Der Algorithmus belohnt sie zusätzlich. Jeder Kommentar – ob Hass oder Zustimmung – erhöht die Reichweite. Die Plattformen liefern also unbeabsichtigt den Treibstoff für die Verbreitung dieser Codes. Es ist ein systemischer Schutz. Nicht für die Opfer, sondern für die Täter.
Und solange dieser Mechanismus nicht aufgebrochen wird, bleibt Ignorieren keine Option. Denn was sich als Meme tarnt, kann am Ende reale Leben zerstören.
Was tun gegen „Dagestan“-Kommentare?
Die queere Community schlägt zurück. Mit Aufklärung, Öffentlichkeit und digitalem Selbstschutz. Immer mehr Creator:innen nutzen ihre Reichweite, um die Bedeutung des Begriffs „Dagestan“ zu erklären. Sie kommentieren Screenshots von Hasswellen und brechen das Schweigen.
@chriss.teee #fyp #fürdich #vira #fürdich #viral_video ♬ Athletic Meet „Heaven and Hell“ (No Introduction) – Shinonome
Viele verbinden ihn mit kurzen Erklärvideos oder Erfahrungsberichten, in denen sie Betroffene unterstützen und unbeteiligte Zuschauer:innen für den Code sensibilisieren. Diese kollektive Aufklärung ist essenziell. Denn erst wer die Bedeutung kennt, erkennt die Absicht.
Neben der Sichtbarmachung setzen viele auch auf konkrete Gegenmaßnahmen. Creator:innen rufen gezielt zum Melden von Kommentaren auf, teilen Tutorials zur Kommentarmoderation und warnen davor, sich auf Provokationen einzulassen, da dies algorithmisch oft zum Nachteil gereicht. Einige nutzen sogar Auto-Block-Tools oder Kommentarfilter mit Schlagwortlisten. Auch wenn „Dagestan“ allein dadurch nicht immer erfasst wird.
Juristisch ist das Thema komplex, aber nicht irrelevant. Denn auch scheinbar codierte Aussagen können unter bestimmten Umständen strafrechtlich relevant sein. Etwa als Bedrohung (§ 241 StGB) oder Volksverhetzung (§ 130 StGB). Entscheidend ist dabei die Kontextualisierung. Wenn sich etwa gezielte Kampagnen nachweisen lassen, massenhafte Kommentare mit einschüchternder Absicht erfolgen oder der Bezug zu realer Gewalt klar belegbar ist, rückt auch eine strafbare Handlung in greifbare Nähe. Einige Rechtsanwält:innen für IT- und Medienrecht empfehlen Betroffenen bereits, Screenshots zu sichern, Zeitstempel zu dokumentieren und Anzeige zu erstatten, wenn sich die Angriffe häufen oder personalisierte Drohungen hinzukommen.
Klar ist: Der digitale Raum ist kein rechtsfreier. Und wer kommentiert, dass jemand „nach Dagestan geschickt werden soll“, kann sich nicht auf Ironie oder Humor berufen. Nicht, wenn es dabei klar um Demütigung, Angst und Gewaltfantasie geht. Die Community hat begonnen, diesen Mechanismus zu durchbrechen. Was jetzt fehlt, ist ein ebenso klares Signal von Plattformen – und von der Justiz.
Was jetzt passieren muss
Plattformen müssen handeln. Jetzt. Und zwar nicht mit wohlklingenden Absichtserklärungen oder symbolischen Kampagnen, sondern mit konkreten, überprüfbaren Maßnahmen. Es braucht intelligente Meldesysteme, die nicht nur offensichtliche Hasskommentare erfassen, sondern auch auf Muster, Kontexte und Codes reagieren können. Community-Richtlinien müssen endlich explizit codierte Sprache und digitale Dogwhistles als das anerkennen, was sie sind: Formen von gezielter, systematischer Ausgrenzung. Und vor allem: Moderator:innen weltweit müssen geschult werden. Damit sie nicht nur Begriffe erkennen, sondern deren Bedeutung auch verstehen – kulturell, politisch und historisch.
Doch Verantwortung endet nicht bei TikTok oder Instagram. Auch die Gesellschaft selbst steht in der Pflicht. Denn wer den Code versteht, kann ihn entlarven. Und wer ihn ignoriert, macht sich mitschuldig. Ob als Plattformbetreiber, Medienkonsument:in oder stille:r Beobachter:in. Es braucht eine informierte Öffentlichkeit, die weiß, dass „Dagestan“ kein Scherz ist. Lehrer:innen, Journalist:innen, Eltern und Politiker:innen müssen sensibilisiert werden für die feinen Mechanismen digitaler Gewalt. Denn wer sie übersieht, schützt nicht die Meinungsfreiheit, sondern deren Gegner.
Gleichzeitig braucht es politischen Druck. Der Gesetzgeber muss klären, wie Plattformen für strukturell tolerierten Hass zur Verantwortung gezogen werden können. Und er muss den Schutz marginalisierter Gruppen im Netz stärken. Auch dort, wo der Hass nicht schreit, sondern flüstert. Denn das Internet ist längst kein anonymer Spielplatz mehr. Es ist ein Raum, in dem Sprache Realität formt, Angst erzeugt und Macht verteilt.
Darum gilt: Wer schweigt, lässt zu. Wer wegsieht, stärkt die Täter:innen. Und wer handelt, schützt nicht nur Worte, sondern Leben.
Fazit: „Dagestan“ ist keine Geografie. Es ist Gewalt.
Was hier geschieht, ist kein Jugendwitz. Kein virales Gimmick. Kein Meme mit harmloser Pointe. Es ist eine Form digitaler Ausgrenzung. Hochgradig symbolisch. Bewusst doppeldeutig. Und in ihrer Wirkung verheerend. Ein einziges Wort genügt, um queere Menschen in Angst zu versetzen, zum Schweigen zu bringen oder zur Selbstzensur zu drängen. Die Macht solcher Codes liegt in ihrer Tarnung. Harmlos für Außenstehende. Messerscharf für Betroffene.
„Dagestan“ steht in diesem Kontext nicht für ein Land, sondern für eine Drohung. Wer es in Kommentarspalten unter queere Inhalte postet, meint nicht Sport oder Kultur, sondern Unterwerfung, Zwang und Auslöschung. Diejenigen, die das ignorieren, verharmlosen strukturelle Gewalt. Und jene, die es verharmlosen, normalisieren den nächsten Angriff.
Darum braucht es klare Worte, klare Haltung und klare Solidarität. Denn digitale Gewalt beginnt oft mit einem Code – und endet mit echtem Schmerz.
Wer „Dagestan“ entlarvt, durchbricht die Kette. Wer sich wehrt, schützt nicht nur sich selbst, sondern eine Community, die längst gelernt hat, zwischen den Zeilen zu lesen. Und wer hinschaut, erkennt: Es geht nicht um ein Wort. Es geht um Würde.
Quellenverzeichnis
241 StGB – Bedrohung (dejure.org)
Gesetzestext zur strafrechtlichen Bewertung von Bedrohungen, wie sie im Kontext von „Dagestan“-Kommentaren relevant sein könnten.
https://dejure.org/gesetze/StGB/241.html
130 StGB – Volksverhetzung (dejure.org)
Gesetzliche Grundlage für die Einordnung gezielter Hasskampagnen, z. B. bei queerfeindlichen Kommentarwellen.
https://dejure.org/gesetze/StGB/130.html
FairPlanet – LGBTQ-Verfolgung in Dagestan
Ausführlicher Hintergrundbericht über die menschenrechtliche Lage queerer Personen in Dagestan, inklusive dokumentierter Gewalt, Repression und Fluchtgeschichten.
https://www.fairplanet.org/story/escape-or-die-the-deadly-crackdown-on-lgbtq-lives-in-dagestan
Human Rights Watch (2017): They Have Long Arms and They Can Find Me.
https://www.hrw.org/report/2017/05/26/they-have-long-arms-and-they-can-find-me/anti-gay-purge-local-authorities-russias
indy100 – Erklärung des TikTok-Trends
Kurzartikel über die Herkunft, Entwicklung und Wirkung des „Dagestan“-Trends auf TikTok mit Fokus auf queere Creator:innen.
https://www.indy100.com/tiktok/dagestan-meaning-tiktok-social-media-lgbt
LUI.cz – Hass gegen LGBTQ auf TikTok
Analyse der Nutzung von „Dagestan“ als digitales Hassinstrument in der queeren TikTok-Community.
https://www.lui.cz/en/trends/21825-send-him-to-dagestan-homophobic-tiktok-users-have-found-a-new-way-to-spread-hate-on-social-media
PinkNews – Warum queere Menschen Dagestan fürchten
Umfassende Aufarbeitung des Begriffs „Dagestan“ im Kontext von LGBTQ-Feindlichkeit, inklusive Beispielen aus sozialen Medien.
https://www.thepinknews.com/2025/07/08/why-are-lgbtq-people-being-told-to-go-to-dagestan/
queer.de – Queerfeindlicher Trend mit Dagestan-Kommentaren
Deutscher Beitrag über die problematische Bedeutung des Begriffs auf TikTok, mit Fokus auf LGBTQ-Diskriminierung und Plattformversagen.
https://www.queer.de/detail.php?article_id=54316
Stuttgarter Nachrichten – „Dagestan“-Trend auf TikTok
Deutscher Nachrichtenbeitrag zur viralen Welle von Dagestan-Kommentaren unter LGBTQ-Inhalten und deren bedrohlicher Bedeutung.
https://www.stuttgarter-nachrichten.de/inhalt.dagestan-trend-mhsd.f623c224-f0c4-4b05-8b8a-3e8662ff5661.html
The Tab – Bedeutung von „Dagestan“ auf TikTok
Erklärung des Begriffs als queerfeindlicher Code in sozialen Netzwerken und Aufruf, entsprechende Kommentare zu melden.
https://thetab.com/2025/07/15/heres-what-dagestan-means-on-tiktok-and-why-you-should-immediately-report-anyone-using-it
Wikipedia – Brigade / Brigading (digitale Mobilisierung)
Definition und Erklärung des Begriffs „Brigading“ als koordinierte Online-Hassaktion in Kommentarspalten oder sozialen Netzwerken.
https://en.wikipedia.org/wiki/Brigade_(disambiguation)
© Bildnachweis: KI-generiertes Bild mit Midjourney
Dieser Beitrag erschien zuerst bei Mimikama.org, Autor: Tom Wannenmacher. Wir danken den Herausgeber*innen und dem Autor für die Erlaubnis zur Wiederveröffentlichung.
