„Gewalt beginnt oft mit Worten – Worten des Hasses, die Intoleranz verbreiten, Gesellschaften spalten und Diskriminierung hoffähig machen.“ Das hat die Friedensforscherin Alice Wairimu Nderitu im Juni 2024 vor dem UN-Sicherheitsrat gesagt. Die Kenianerin war damals UN-Sonderberaterin zur Verhütung von Völkermord und berichtete den Staatenvertretern, wie Hasskommentare und die Verherrlichung von Gewalt auf Social-Media-Plattformen wie Facebook, X oder YouTube überall auf der Welt Konflikte anheizen.
Als Beispiele nannte Nderitu die DR Kongo, den Libanon und Myanmar. Hinzufügen ließen sich eine Vielzahl anderer Länder, in denen Gewaltkonflikte herrschen, Äthiopien etwa, oder in denen es starke Spannungen zwischen gesellschaftlichen Gruppen gibt wie in Indien zwischen Hindus und Muslimen. Die Politikwissenschaftlerin Jane Esberg von der University of Pennsylvania, die für die Denkfabrik Crisis Group die Wirkung sozialer Medien auf zwischen- und innerstaatliche Konflikte einige Jahre beobachtet hat, sagt: „Es gibt im Grunde nicht einen Konflikt auf der Welt, in dem Social Media nicht irgendeine Rolle spielt.“
In Myanmar nutzte das Militär Facebook jahrelang, um gegen die Bevölkerungsgruppe der Rohingya zu hetzen. Die Kampagne gipfelte in den Jahren 2016 und 2017 in Pogromen gegen die muslimische Minderheit, bei denen Zehntausende ermordet wurden. Millionen Menschen wurden vertrieben, allein im Sommer 2017 flüchteten 700.000 über die Grenze nach Bangladesch, wo sie heute noch im riesigen Flüchtlingslager Cox’s Bazar leben.
Fake Accounts für Hass und Propaganda
In einem Untersuchungsbericht kamen die Vereinten Nationen zum Schluss, soziale Medien hätten eine „signifikante Rolle“ bei den Gräueltaten gegen die Rohingya gespielt. Gemeint ist damit Facebook, das damals in Myanmar weit verbreitet war, weil es Nutzern im Rahmen seines Angebots „Free Basics“ kostenlosen Zugang zu ausgewählten Seiten im Internet bot. Das Militär und ihm nahestehende buddhistische Nationalisten hatten auf der Plattform jahrelang systematisch Accounts unter falscher Identität eingerichtet, um Hass und Propaganda gegen Muslime und insbesondere die Rohingya zu streuen. Nutzer teilten und verbreiteten die Inhalte. Rohingya wurden als Hunde bezeichnet, die erschossen werden müssten, und zum Jahrestag der Anschläge vom 11. September 2001 in den USA wurde die Behauptung verbreitet, Muslime planten in Myanmar einen großen Angriff auf Buddhisten.
Autor
Facebook räumte seinerzeit ein, es sei mitverantwortlich für die Gewalt. „Was in Myanmar passiert, ist eine schreckliche Tragödie und wir müssen mehr tun“, sagte Firmenchef Mark Zuckerberg 2018 bei einer Anhörung vor dem US-Senat. In Myanmar und anderen Ländern stellte Facebook zusätzlich Prüfer ein, die die Landessprachen beherrschen, und verbesserte die Algorithmen, um Hasskommentare und Aufrufe zur Gewalt zu erkennen. Aber Fachleute und Menschenrechtsorganisationen wie Amnesty International monieren, dass das oft zu halbherzig und zu spät geschieht. In Äthiopien etwa, wo der Bürgerkrieg um die Provinz Tigray von 2020 bis 2022 über soziale Medien angefacht wurde, war Facebook lange nicht der beiden weit verbreiteten Landessprachen Amharisch und Oromo mächtig.
Zudem ist Gewalt gewissermaßen gut fürs Geschäft der sozialen Medien. Polarisierende Inhalte werden besonders eifrig geklickt. Die Algorithmen von Facebook und Co sorgen deshalb dafür, dass solche Inhalte bevorzugt verbreitet werden, selbst wenn sie gegen Standards der Plattformen verstoßen. Inhaltsprüfer, die von Hand Hetze und Hass aussortieren sollen, wirken da wie ein Feigenblatt. Und je mehr Fake News und Gewaltaufrufe von Bots verfasst und verbreitet werden, die zudem dank künstlicher Intelligenz immer schwieriger als nicht menschlich zu identifizieren sind, desto aussichtsloser mutet solche Handarbeit an.
Religiöse Verunglimpfung ist an der Tagesordnung
In Indien trifft die Hetze aus den sozialen Medien gegen Muslime auf eine Gesellschaft, in der das Trauma der gewaltsamen Teilung 1947 erst noch aufgearbeitet werden muss, sagt Sangeeta Mahapatra vom GIGA-Institut in Hamburg. Misstrauen und Abneigung zwischen Hindus und Muslimen seien gesellschaftlich verwurzelt. Früher habe das sporadisch zu lokalen Gewaltausbrüchen geführt, doch seit rund zehn Jahren seien Hassreden über die sozialen Medien gewissermaßen flächendeckend normalisiert worden, sagt Mahapatra, die zur Wirkung von digitalen Medien in Konflikten vor allem in Asien forscht. Das könne in physische Gewalt münden.
Religiöse Verunglimpfung sei an der Tagesordnung, auch weil einige traditionelle Medien wie Nachrichtenkanäle den Stil der sozialen Netzwerke übernehmen. Mahapatra sieht die Verantwortung aber auch bei den Nutzern, die die Inhalte bereitwillig teilen. Auf diese Weise dringt der Hass bis in die entlegensten Dörfer: Es reicht, dass einer ein Smartphone hat und den anderen Dorfbewohnern erzählt, was er auf dem Bildschirm gesehen hat.
Was tun? Auf eine Selbstkontrolle der Netzwerke und auf wirksame Schritte gegen Hass und Gewalt sollte man nicht zählen. X, früher Twitter, ist in dieser Hinsicht ohnehin außer Rand und Band, seit Elon Musk die Plattform Ende 2022 übernommen hat. Und Facebook-Chef Mark Zuckerberg, dem auch noch Instagram und WhatsApp gehören, kündigte Anfang 2025 an, auf seinen Plattformen werde künftig auf Inhaltsprüfer verzichtet – ein Schritt, mit dem sich Zuckerberg offenkundig beim kurz zuvor gewählten US-Präsidenten Donald Trump einschmeicheln wollte, der in Faktenchecks auf Social Media lediglich Zensur sieht.
„Freie Rede ist wichtig, auch wenn einem die Rede nicht gefällt“
Etliche Länder haben in den vergangenen Jahren Gesetze erlassen, um die Inhalte von sozialen Medien zu kontrollieren und die Betreiber in bestimmten Fällen zum Eingreifen zu zwingen. Die Europäische Union versucht seit 2024 mit dem Digital Services Act, dem Versagen der Netzwerke, Hass und Hetze einzudämmen, etwas entgegenzusetzen. Politikwissenschaftlerin Jane Esberg erkennt das im Prinzip an. Dennoch werfe die staatliche Kontrolle „heikle Fragen“ auf: „Freie Rede ist wichtig, auch wenn einem die Rede nicht gefällt. Und man stelle sich vor, wie die sozialen Medien aussähen, wenn Trump sie kontrollierte.“
Vielleicht so wie in Indien: Dort werden Posts der Opposition öfter gelöscht als die der Regierungspartei und ihrer Anhänger, sagt Sangeeta Mahapatra. Vor vier Jahren hat die Regierung die Kontrolle von Social-Media-Inhalten noch einmal verschärft, zudem ist der riesige Markt in Indien sehr lukrativ für Facebook, X und Google, zu dem YouTube gehört. „Beides führt vermutlich dazu, dass die Plattformbetreiber sich lieber nicht mit der Regierung anlegen wollen.“
Statt auf die Selbstkontrolle der großen Plattformen und auf Gesetze hofft Jane Esberg deshalb auf alternative soziale Medien mit relativ neutralem Algorithmus wie Bluesky und gemeinschaftsbasierte moderierte Netzwerke wie Reddit. Die seien nicht perfekt, aber erschwerten die unkontrollierte Verbreitung von Falschinformationen. Und sie sagt: Traditionelle Medien, die Fakten prüfen, Lügen aufdecken und Hetze als solche entlarven, seien heute „wichtiger denn je, damit die kühleren Köpfe die Oberhand gewinnen“.
Darauf hofft auch Sangeeta Mahapatra in Indien. Dort wachse seit einigen Jahren die Zahl alternativer Medien, vor allem auf regionaler Ebene, die der Falschinformation und dem herrschenden aggressiven Ton etwas entgegensetzen wollen. „Viele Leute sind es einfach leid, ständig mit Hassinhalten bombardiert zu werden“, sagt sie.
Neuen Kommentar hinzufügen