Durch rechts­extremes Gedan­kengut ins Rabbit­hole‘

Datum
18. November 2022
Autor*in
Lea Rosendahl
Redaktion
politikorange
Themen
#Medien #YouMeCon22
The fact is replaced by a fake. substitution of concepts. a man changes the signs with the words fact on fake on a black background.

The fact is replaced by a fake. substitution of concepts. a man changes the signs with the words fact on fake on a black background.

substitution of concepts. The fact is replaced by a fake. a man changes the signs with the words fact on fake on a black background. Foto: Adobe Stock diy13

Die Sozialen Medien sind ein Ort für rechts­extreme Propa­ganda geworden. Das Ziel: Junge Anhänger*innen anwerben.

Nazis töten“ steht auf der Skimaske des schwarz geklei­deten Akti­visten. Er sagt, es habe sich in letzter Zeit gezeigt, dass viele Aktivist*innen von Neonazis ange­griffen wurden. Ein einge­blen­deter Schriftzug beschreibt linke Aktivist*innen als schw@ch“ (Zensur über­nommen), „@gressiv“, eins@m“. Später ertönt impo­sante Musik, während sport­trei­bende Männer ihre musku­lösen Arme in die Kamera halten. Ein Mann hat das Erken­nungs­zei­chen der Hitler­ju­gend auf der Skimaske. Der right­wing“ sei sport­lich“, gesund“, eine Gemein­schaft“ und natur­ver­bunden“. 38,8 Tausend Menschen haben das auf TikTok veröf­fent­lichte Video geklickt, 4.424 (Stand 30.10.2022) davon gefällt es. In den Kommen­taren ist viel Zustim­mung zu finden. Eine Person schreibt: So muss das“, eine andere stimmt zu, dass man keine Schwäche zeigen sollte. Einige Deutsch­land­fahnen-Emojis sind zu finden. Was hier statt­findet, ist die Verbrei­tung von rechter Propa­ganda auf Social Media. Ob auf TikTok, Insta­gram, Twitter oder anderen Sozialen Netz­werken: Rechts­extre­mis­ti­sche Inhalte häufen sich. Gegründet 2016, gilt TikTok als junges Netz­werk und gerät derzeit vermehrt in Kritik wegen rechter Inhalte, die auf der Platt­form kursieren. Es scheint, als hätten beson­ders rechts­po­pu­lis­ti­sche und rechts­extre­mis­ti­sche Creator*innen die Medi­en­kom­pe­tenz, die es benö­tigt, um erfolg­reich auf der Platt­form zu werden. So ist die AfD die erfolg­reichste Partei auf TikTok, wie Recher­chen des funk-Formats DIE DA OBEN! und des Poli­tik­be­ra­ters Martin Fuchs ergaben. Doch woher kommt das Inter­esse der rechten Szene an TikTok? Auf der Platt­form sind laut Statista (Stand April 2022) monat­lich allein circa 19,51 Millionen aktive Nutzer*innen in Deutsch­land, inter­na­tional errei­chen sie nach einem Bericht des Mobile-Analy­tics-Unter­neh­mens App Annie etwa 1,5 Milli­arden Menschen. Theresa Lehmann arbeitet bei der Amadeu Antonio Stif­tung zu den Themen Medi­en­kom­pe­tenz gegen Desin­for­ma­tion und Hate Speech. Sie erklärt: Rechts­extreme sind aus dem glei­chen Grund auf TikTok, wie auch öffent­lich-recht­liche Akteur*innen. Sie möchten Jugend­liche errei­chen und ihre Narra­tive verbreiten.“ Dabei setzen sie vor allem auf soge­nannte Politfluencer*innen. Kommu­ni­ka­tion mit der Commu­nity, Nahbar­keit und persön­liche Ansprache“ beinhaltet das Konzept. Jugend­liche würden auf diese Weise abge­holt und fühlten sich durch die para­so­ziale Bezie­hung wert­ge­schätzt.
Theresa Lehmann arbeitet bei der Amadeu Antonio Stiftung und setzt sich unter anderem mit rechtsextremer Social Media Nutzung auseinander. Auf der YouMeCon 22 erzählte sie den Journalismus-Interessierten von „Rechten Medienwelten".

Theresa Lehmann arbeitet bei der Amadeu Antonio Stiftung und setzt sich unter anderem mit rechtsextremer Social Media Nutzung auseinander. Auf der YouMeCon 22 erzählte sie den Journalismus-Interessierten von "Rechten Medienwelten". Foto: Jugendpresse Deutschland/Joscha F. Westerkamp

Stra­te­gisch würden sie zudem auf ihren Profilen eine Insze­nie­rung ihres eigenen Life­styles durch beispiels­weise Vlogs nutzen. Aus genau dieser Insze­nie­rung besteht ihr Content. Geld, Macht und Beliebt­heit. Sie zeichnen ein erstre­bens­wertes Bild, das Jugend­liche anlockt. Durch den direkten Austausch auf der Platt­form wird das Gefühl vermit­telt, die Creator*innen seien unge­fil­tert und echt“, meint Theresa. Frauen filmen sich beim Backen und träu­feln nebenbei ein biss­chen menschen­feind­liche Propa­ganda in den Teig“, erzählt sie beispiel­haft von Trad­wives, die als tradi­tio­nelle Frauen“ die Stereo­typen der Fünf­zi­ger­jahre in den sozialen Medien verbreiten.

Rabbit Hole – radi­ka­li­sie­render Kanin­chenbau

Der Algo­rithmus sozialer Netz­werke wird stets gefüt­tert. Durch Liken, Spei­chern oder Kommen­tieren – die Platt­form sammelt Daten, um schließ­lich Inhalte anzu­zeigen, die den/​die User*in anspre­chen. Soziale Medien sind gewinn­ori­en­tiert und somit inter­es­siert daran, Nutzer*innen möglichst lange auf den Platt­formen zu halten. Insbe­son­dere emotional aufge­la­denen Inhalte regen zum weiteren Konsu­mieren an. Zum einen sind es posi­tive Emotionen, zum anderen aber auch Hass und Angst, die die Aufmerk­sam­keit der scrol­lenden Nutzer*innen auf sich ziehen. Durch audio­vi­su­elle Effekte, wie Musik, aber auch span­nende Edits verstärken sich die Emotionen. Der Algo­rithmus sorge für eine klare Radi­ka­li­sie­rung. Ein Sog ins Rabbit­hole’“, so beschreibt es Theresa. Sieht man sich beispiels­weise ein Video mit frau­en­feind­li­chem Inhalt an, ist der Weg nicht weit zu queer-feind­li­chen Inhalten. Wer sich einmal in den Kanin­chenbau begibt, gräbt sich tiefer und tiefer in die Radi­ka­li­sie­rung.

Der Unter­gang des herr­schenden Systems sei oft Thema rechter Propa­ganda, so Theresa. Dabei werde ein Hand­lungs­drang vermit­telt, der zu realen Taten anstiftet.

Konstantin Flemig, Jour­na­list und Regis­seur, beschäf­tigte sich im Rahmen seiner Recherche zur isla­mis­ti­schen Terror­gruppe ISIS genauer mit Gewalt­dar­stel­lungen auf Social Media. Eine Diffe­ren­zie­rung der beiden Gruppen ist wichtig, jedoch lassen sich Paral­lelen erkennen. Beim Betrachten der Inhalte fällt auf: Ironie und Humor werden hier zur Fassade. Mit Hash­tags wie „#joke“ und „#humor“ halten sie den Fuß in die Hintertür, sich stets bei ihrer Aussage auf Ironie berufen zu können. Hinter der Doppel­deu­tig­keit verste­cken sich aber gewalt­ver­harm­lo­sende Inhalte. Unter­schwel­liges ist gefähr­lich“, meint Konstantin zu dieser indi­rekten Art von Propa­ganda.

Konstantin Flemig

Journalist und Regisseur von Dokumentarfilmen Konstantin Flemig beschäftigte sich im Rahmen einer Recherche über die ISIS mit Strategien und Gewaltdarstellungen von Terrorgruppen auf Social Media. Foto: Jugendpresse Deutschland/Joscha F. Westerkamp

Jugend­liche durch Socia-Media-Inhalte gefährdet

Laut einer Auswer­tung des Statis­ti­schen Bundes­amtes im Jahr 2021 nutzen 78% der 16 bis 24 Jährigen die Sozialen Medien. Im Vergleich zu anderen Alters­gruppen, beispiels­weise den zu 36% vertre­tenen 45 bis 64-Jährigen, ist das eine Menge.

Aller­dings sind auch Jüngere im Internet unter­wegs: Ein Bericht der New York Times legt offen, dass 2020 knapp ein Drittel der gesamten Nutzer*innen auf TikTok unter 14 Jahre alt waren. Da stellt sich eine essen­ti­elle Frage: Wie werden diese vor rechts­extremen, gewalt­ver­herr­li­chenden Inhalten geschützt? Konstantin und Theresa sind sich einig: Es müsse mehr und vor allem schneller gehan­delt werden. Grund­sätz­lich können von mehreren Instanzen Schutz­maß­nahmen veran­lasst werden. Dazu gehören die Platt­formen, die Landes­me­di­en­an­stalten, aber auch demo­kra­ti­sche Akteur*innen, die durch soge­nanntes Debun­king“ Falsch­nach­richten als solche entlarven.

Bodil Diede­richsen ist Rechts­re­fe­rentin bei der Medi­en­an­stalt Hambur­g/­Schleswig-Holstein (MA HSH) und befasst sich dort im Schwer­punkt mit dem Jugend­me­di­en­schutz. Sie erklärt: Platt­formen haben alle eigene Richt­li­nien, die welt­weit gelten und bei Verstößen vor einer recht­li­chen Über­prü­fung ange­wendet werden.“ Jede Platt­form setze ihre Richt­li­nien nach einem unter­schied­li­chen Maßstab z.B. in Bezug auf den Tatbe­stand der Verharm­lo­sung von natio­nal­so­zia­lis­ti­schen Hand­lungen. Das sei zum Teil dem Herkunfts­land der jewei­ligen Platt­form geschuldet – so kenne das ameri­ka­ni­sche Gesetz den deut­schen Tatbe­stand der Holo­caust­leug­nung nicht. Demnach seien bei den unter­schied­li­chen Platt­formen die Haus­re­geln unter­schied­lich formu­liert und einige der rechts­extremen Inhalte würden nicht aufgrund der eigenen Richt­li­nien heraus­ge­fil­tert. Recht­lich seien die Platt­formen, in ihrer Rolle als Host­pro­vider” nicht verpflichtet, alle Inhalte selbst­ständig stets auf ihre Rechts­kon­for­mität hin zu kontrol­lieren, sondern müssten nur ab Kenntnis, wie z.B. durch eine Meldung von Nutzer*innen, tätig werden. Es bedürfte einer Geset­zes­än­de­rung, um die Platt­formen zu einer eigen­stän­digen Prüfung der bei ihnen hoch­ge­la­denen Inhalte zu bewegen. Gegen eine solche Entwick­lung spricht jedoch, dass die Platt­form­an­bieter dann stets proaktiv sämt­liche Inhalte filtern und als Privat­un­ter­nehmen ähnlich wie Richter geset­zes­kon­form bescheiden müssten”, ist die Rechts­re­fe­rentin der Meinung. Gegen­wärtig verdienen Netz­werke viel Geld mit neben den Inhalten auf ihren Platt­formen geschal­teter Werbung, sie sollten daher nach Meldungen rechts­wid­riger Inhalte zumin­dest schnell und umfas­send ihrer Verpflich­tung zum Löschen nach­kommen”.

Auch Konstantin findet: Wenn Druck von der Politik kommt, teure Klagen im Raum stehen oder ein Verbot von solchen Apps, dann könnten sie denken: Es ist güns­tiger, wenn da regu­liert wird.’ Sie denken eben wirt­schaft­lich.“

Eine Haupt­auf­gabe der MA HSH ist das Aufspüren von rechts­wid­rigen Inhalten in privatem Rund­funk und Tele­me­dien wie in sozialen Netz­werken und auf Websites. Das konkrete Ziel, so erklärt Bodil Diede­richsen: Beiträge, die gegen den (Jugend-)Medienschutzstaatsvertrag verstoßen, zu löschen und deren Urheber zur Verant­wort­lich­keit ziehen. Als Hilfe­stel­lung gäbe es inzwi­schen ein KI-Tool, das mehrere tausend Websites pro Tag durch­kämme. Im Anschluss müssten die Funde zwar noch durch Mitar­beiter der Medi­en­an­stalten über­prüft werden, doch nehme die Soft­ware Arbeits­auf­wand bei der Durch­su­chung von Inhalten ab. Im Jahr 2020 hat das KI-Tool 20.000 Fund­stellen aufge­spürt, davon waren 700 nach erneuter Kontrolle als volks­ver­het­zend einzu­stufen”, berichtet sie. Bei Verstößen müsste die Tele­me­di­en­auf­sicht ein Stufen­system der Verant­wort­lich­keit” ablaufen. Zunächst müsse gegen den Content­pro­vider” vorge­gangen und dieser zur jugend­schutz­kon­formen Nach­bes­se­rung aufge­for­dert werden. Sei dieser nicht iden­ti­fi­zierbar oder seien gegen den Content­pro­vider alle mögli­chen Verfah­rens­schritte erfolglos durch­ge­führt worden, werde die Platt­form selbst als Host­pro­vider” zum Löschen aufge­for­dert. Im letzten Schritt bestehe die Möglich­keit, Sper­rungen von Webseiten über den Access­pro­vider” also die Zugangs­an­bieter zum Internet, wie beispiels­weise Voda­fone und Telekom, durch­zu­setzen.“ Bis es zu einer Sperre kommt, dauert es also manchmal sehr lange”, so die Refe­rentin.

Um Propa­ganda entge­gen­zu­wirken, betreiben einige Akteur*innen bereits Debun­king“. Hier werden Falsch­nach­richten anhand von fundierter Recherche als solche entlarvt. Auch Theresa möchte mit ihrem Projekt demo:create“ aufklären, wie man mit Hass­rede und Desin­for­ma­tion auf TikTok umgeht. Und mit diesem Projekt ist sie nicht allein. Mitt­ler­weile gibt es schon einige, die Gegen­rede leisten. Diese müssen gestärkt werden“, findet Theresa.

Zudem müssen die Maßnahmen über die Platt­form bis hin in die Klas­sen­räume reichen. Daten­schutz, Jugend­schutz, Privat­sphäre; Wie bewege ich mich sicher im Internet? Es wäre total wichtig, dass das jede Person in ihrer Schul­lauf­bahn vermit­telt bekommt“, meint Theresa. Der Wunsch nach einem Schul­fach Medi­en­kom­pe­tenz“ sei schon sehr alt und mitt­ler­weile ist sie leider pessi­mis­tisch geworden, dass dieses Fach zeitnah einge­führt wird. Dennoch ist es von immenser Bedeu­tung, präventiv aufzu­klären und die Schüler*innen auf die Medi­en­welt vorzu­be­reiten: Manche Schulen holen sich bereits Medienpädagog*innen an die Schule”, erzählt Theresa. Aller­dings könne dies auf lange Sicht nicht reichen und jede Schule müsse sich dem Thema Medien annehmen.

Ob konse­quentes Entge­gen­wirken auf der Platt­form oder die Medi­en­kom­pe­tenz außer­halb der Platt­form stärken – getan werden kann noch einiges. Social-Media-Inhalte wie das TikTok vom Anfang zeigen, wie notwendig das ist.


Empfohlene Beiträge

Werde Teil unserer Community

Entdecke spannende Geschichten, vernetze dich mit anderen jungen Journalist:innen und gestalte die Medienlandschaft von morgen mit. Melde dich jetzt an und bleibe immer auf dem neuesten Stand.

Wehrpflicht Redaktion Gruppenbild