Das Thema Hate Speech im Internet sorgt seit Jahren immer wieder für Schlagzeilen und Kontroversen. Nicht erst seit dem Anstieg von Hate Speech im Zuge der sogenannten „Flüchtlingskrise“ und den intensiven Debatten um das Netzwerkdurchsetzungsgesetz war das Thema in den Schlagzeilen. Doch was ist Hate Speech überhaupt, und weshalb sollten wir uns mit dem Thema beschäftigen? Eine Problemanzeige von Jakob Guhl.*

 

In diesem Artikel werden die Debatten um den Begriff Hate Speech, auch viele (offene) Debatten, z.B. in Bezug auf die Frage nach der Rolle der Anonymität im Netz und dem Einfluss von Bots, vorgestellt. Neben der Vorstellung dieser umstrittenen Punkte vertrete ich, auf Grundlage unserer Forschungen am Londoner Institute for Strategic Dialogue (ISD) als auch den Ergebnissen anderer Forscher*innen, sechs zentrale Thesen zum Thema Hate Speech in den Sozialen Medien. Erstens, Hate Speech ist eine plattformübergreifende Herausforderung, die sich nicht auf die großen Plattformen wie Facebook und Co. beschränkt. Zweitens, eine kleine Minderheit an User*innen ist überproportional für die Verbreitung von Hate Speech verantwortlich. Drittens, in Deutschland sind vor allem Rechtsextremist*innen an der Verbreitung von Hate Speech beteiligt. Viertens, Hate Speech wird von Extremist*innen strategisch eingesetzt. Fünftens, nicht alle User*innen sind von Hate Speech gleichermaßen betroffen. Sechstens, auch deshalb bedroht Hate Speech die Meinungsvielfalt in den Sozialen Medien.

Meinungsvielfalt und die Zurückdrängung extremistischer Tendenzen sind für die Demokratie von zentraler Bedeutung. Die fantastischen Möglichkeiten, die uns durch das Internet und Soziale Medien eröffnet werden, sind zu wertvoll, um das Feld den Extremist*innen und Hetzer*innen zu überlassen. Daher müssen wir als ­Demokrat*­innen vielfältige Strategien zur Bekämpfung von Hate Speech entwickeln.

 

Was ist „Hate Speech“ überhaupt?

Die genaue Bedeutung des Begriffes „Hate Speech“ ist umstritten. Dennoch finden sich innerhalb der geläufigsten Definitionen bestimmte Merkmale immer wieder. Zunächst ist darauf hinzuweisen, dass Hate Speech sich nicht auf den Hass gegenüber spezifischen Personen bezieht, denen ein bestimmtes, individuelles Verhalten vorgeworfen wird. Hate Speech ist es also nicht, wenn ich meinen Nachbarn hasse, weil dieser meinen Hund vergiftet hat. Bei Hate Speech geht es um Hass aufgrund von zugeschriebenen oder tatsächlichen Gruppenzugehörigkeiten. So definiert beispielsweise Facebook Hate Speech als einen „direkten Angriff auf Personen aufgrund geschützter Eigenschaften: ethnische Zugehörigkeit, nationale Herkunft, religiöse Zugehörigkeit, sexuelle Orientierung, Kaste, Geschlecht, Geschlechts­iden­tität, Behinderung oder Krankheit.“

Hier wird es jedoch bereits komplizierter: Was sind geschützte Kategorien? Das „No Hate Speech Movement“, eine vom Europarat initiierte Kampagne, betrachtet als Hate Speech vor allem abwertende Äußerungen aufgrund der „Zugehörigkeit zu einer benachteiligten Gruppe in der Gesellschaft.“ Hass gegenüber „privilegierten“ Gruppen fiele demnach nicht unter Hate Speech.

Ein weiterer Unterschied zwischen den geläufigen Definitionen bezieht sich auf die Frage, ob bestimmte politische Einstellungen oder Verhaltensweisen ein Ziel für Hate Speech werden können. Während viele der Definitionen aus der Zivilgesellschaft und der Plattformwirtschaft dies verneinen würden, fallen für das Bundeskriminalamt Angriffe aufgrund der „politischen Haltung, Einstellung und/oder Engagements“ ebenfalls unter „Hasspostings“ (synonym zu Hate Speech), zu welchen für die jährlichen Berichte des Bundesministeriums des Innern, für Bau und Heimat (BMI) zur Entwicklung der „Politisch Motivierten Kriminalität“ seit 2016 Zahlen ­erhoben werden.

 

Rechtliche Lage

Jetzt, wo wir wissen, was Hate Speech ungefähr ist und nicht ist, kommen wir zu einer weiteren Kontroverse: Wie sieht das eigentlich rechtlich aus? Hate Speech ist in Deutschland kein rechtlich definierter Begriff. Laut dem BKA ist Hate Speech „nicht per se strafrechtlich relevant und können auch unterhalb der Schwelle zur Strafbarkeit liegen.“ Obwohl Hate Speech also nicht in jedem Fall verboten ist, überschneidet sich das Phänomen in seiner Bedeutung mit strafrechtlichen relevanten Delikten, z.B. der üblen Nachrede, Verleumdung, öffentlichen Aufrufen zu Straftaten, Volksverhetzung und Bedrohung.

Eine der großen juristischen Diskussionen im Hinblick auf Hate Speech in den Sozialen Medien der letzten Jahre drehte sich um das Netzwerkdurchsetzungsgesetz (NetzDG). Im Juni 2017 verabschiedete der Deutsche Bundestag das NetzDG, durch das große Soziale Medien Plattformen (mit über zwei Millionen User*innen in Deutschland) gesetzlich dazu verpflichtet wurden, „eindeutig illegale Inhalte“ innerhalb von 24 Stunden nach Erhalt einer Beschwerde zu entfernen oder, im Falle systematischer Verstöße gegen diese Verpflichtung, mit Geldbußen von bis zu 50 Mio. Euro belegt zu werden. Hierbei ging es zwar nicht nur um Hate Speech, sondern um illegale Inhalte jeglicher Art, doch auch strafrechtlich relevante Formen von Hate Speech fielen darunter. Tatsächlich war das gestiegene Aufkommen von flüchtlingsfeindlicher Hetze in den Kommentarspalten der sozialen Medien eine der zentralen Antriebskräfte für das Gesetzesvorhaben.

Das NetzDG war und ist extrem kontrovers, und stößt nicht nur seitens der Plattformbetreiber, sondern auch innerhalb der Zivilgesellschaft immer wieder auf deutliche Kritik. Es wurde befürchtet, dass Plattformen Anreize dafür geliefert werden, im Zweifelsfall lieber zu viel zu löschen, um sich selbst vor hohen Bußgeldern zu schützen (sog. „Overblocking“). Die zentrale Frage lautet hier, wann Hate Speech „eindeutig illegal“ ist: Was ist der Hintergrund eines Posts? Gibt es einen sachlichen Bezug? Wer ist betroffen? Hierbei kann es sich im Einzelfall um komplexe Fragestellungen handeln. Können Plattformbetreiber (unter dem durch das NetzDG auferlegten Zeitdruck) dies wirklich angemessen abwägen? Oder gehen wir hier das Risiko ein, im sensiblen und für den demokratischen Austausch so wichtigen Bereich der Meinungsfreiheit voreilige Einschränkungen durchzusetzen?

Für uns am ISD wird in unserer Arbeit immer wieder deutlich, dass Extremist*innen sich der rechtlichen Schwellen häufig bewusst sind und versuchen, diese durch kodierte Sprache und zweideutige Äußerungen zu umgehen. Auch daher spielt für uns in unserer Forschungsarbeit der Bereich jenseits der strafrechtlich rele­vanten Hasskommentare eine große Rolle.

 

Wo finden wir Hate Speech in den Sozialen Medien?

Neben den umstrittenen Begrifflichkeiten wird die Erforschung und Bekämpfung von Hate Speech im Netz weiter erschwert durch die unübersichtliche Vielzahl an digitalen Plattformen, auf denen wir solche Posts finden. Hate Speech ist eine plattformübergreifende Herausforderung. Neben den großen Sozialen Medien Plattformen wie Facebook, Instagram, YouTube, Twitter und TikTok, welche aufgrund ihrer Userzahlen (jeweils über zwei Millionen) unter die im NetzDG festgelegten Pflichten fallen, gibt es auch noch ein ganzes „Ökosystem“ alternativer Plattformen, die diesen Regulierungen nicht unterliegen.

Vor allem da aufgrund des zunehmenden gesetzlichen und öffentlichen Drucks auf die großen Plattformen seit 2015 dort immer mehr Inhalte und Accounts gesperrt worden sind, sind immer mehr Extremist*innen und User*innen, die Hasskommentare veröffentlichen, auf alternative Plattformen wie den Messengerdienst Telegram, das russische Facebook-Pendant VK, das Videoportal Bitchute, die Twitter-Alternative Gab, die Videospiel-App Discord und die US-amerikanische Plattform Parler ausgewichen. Diese Plattformen haben zumeist entweder kaum Moderationsregeln oder setzen diese nicht konsequent durch. Dadurch können User*innen, deren Accounts auf Facebook, Twitter und Co. entfernt wurden, hier weiterhin Hasskommentare veröffentlichen.

Zwischen diesen Plattformen muss in Bezug auf Funktion als auch auf Hintergrund unterschieden werden. Während einige Plattform explizit zur Verbreitung von Extremismus, Hass und Hetze kreiert wurden, stellen diese eher den Ausnahmefall dar. Häufiger verfolgen die alternativen Plattformen einen libertären Ansatz in Bezug auf das Recht auf Meinungsfreiheit und stehen daher einer inhaltlichen Moderation, die über gesetzliche Anforderungen hinausgeht, kritisch gegenüber. Besonders kleinere US-amerikanische Tech-Plattformen zeigen hier lieber Toleranz gegenüber hasserfüllten Inhalten, als in das durch den ersten Verfassungszusatz garantierte und sehr viel umfangreicher als in Europa ausgelegte Recht auf Meinungsfreiheit einzugreifen. Zudem gibt es eine Reihe von Plattformen, die für einen bestimmten apolitischen Zweck (Musik, Videospiele, das Austauschen von Bildern und Inhalten) gegründet, jedoch im Laufe der Jahre von extremistischen Bewegungen zweckentfremdet wurden.

Der individuelle Hintergrund der jeweiligen Plattform beeinflusst natürlich auch, welche Handlungsmöglichkeiten Politik und Zivilgesellschaft offenstehen. Zweckentfremdete Plattformen sind häufig kooperationsbereit, haben jedoch aufgrund ihrer Größe begrenzte Ressourcen, begrenztes politisches Know-How und begrenzte technologische Kapazitäten. Hier können Forschung, Zivil­gesellschaft und größere Tech-Firmen helfen.

 

Wer benutzt Hate Speech und wer ist davon betroffen?

In Deutschland sind vor allem Rechtsextremist*innen an der Verbreitung von Hate Speech beteiligt. In den bereits erwähnten jährlichen Berichten zur Politisch Motivierten Kriminalität (PMK) werden seit 2016 Zahlen zu Hass-Postings erhoben und nach politischem Hintergrund aufgeschlüsselt. Dabei wurde eine große Mehrheit der polizeilich registrierten, strafbaren Hass-Postings als „PMK rechts“ eingestuft. Im Jahr 2019 waren es 73%, 2018 sogar 77%.

Diese Zahlen bilden aufgrund der großen Dunkelziffer an nicht gemeldeten Hate Speech-Kommentaren nur die Spitze des Eisbergs ab. Auch aufgrund der partiellen Anonymität im Internet ist die Registrierung und Strafverfolgung (wo relevant) von Hate Speech nicht immer einfach.

 

Mehr Anonymität, mehr Hate Speech?

Dabei ist durchaus umstritten, ob Anonymität im Netz zu mehr Hate Speech führt. Die Forschungslage erscheint zunächst widersprüchlich: So argumentierten die Computerwissenschaftler*innen Mondal, Silva und Benevenuto in einer Studie aus dem Jahr 2017, dass anonymer User*innen auf Twitter mehr Hate Speech posten und dass Hate Speech mit Bezug auf die ethnische Zugehörigkeit und sexuelle Orientierung häufiger anonym gepostet werden. Die Sozialwissenschaftler*innen Rost, Stahel und Frey hingegen sind der Ansicht, dass aggressives Diskussionsverhalten online dazu dient, Normen durchzusetzen und dass dies effektiver geschehen kann, wenn Hasskommentar-Schreiber*innen mit Klarnamen operieren. Dies erkläre, weshalb solche Kommentare im Kontext politischer Petitionen nicht disproportional von anonymen User*innen stammen.

 

Alles Bots?

Neben der Anonymität wird in der öffentlichen Berichterstattung zudem immer wieder die Role sog. „Bots“ diskutiert. Bots sind vollautomatisierte Accounts, die ohne menschliche Steuerung das Verhalten „echter“ User*innen imitieren. Durch solche Accounts soll die Stimmung im digitalen Diskurs beeinflusst bzw. verzerrt werden. Gerade nach den US-Wahlen 2016 wurde gegenüber Russland der Vorwurf erhoben, auch durch den Einsatz solcher Accounts in den amerikanischen Wahlkampf eingegriffen zu haben, um die öffentlichen Meinung zugunsten von Donald Trump zu beeinflussen und die demokratische Präsidentschaftskandidatin Hillary Clinton durch Falschinformationen zu diskreditieren.

Innerhalb der Forschung gibt es jedoch auch einige Skepsis an den Methoden zur Bot-Erkennnung. So äußerte sich der Datenanalyst Luca Hammer kritisch gegenüber verschiedenen Ansätzen: die manuelle Beobachtung einzelner Accounts sei zu zeitaufwändig, die Festlegung von bestimmten Raten (auf Grundlage derer 50, 90 oder 140 Posts pro Tag ein Zeichen für die Automatisierung eines Accounts seien) hingegen willkürlich, da es sowohl hochaktive „echte“ User*innen, als auch weniger aktive automatisierte Accounts geben könne. Zwar könne an den Datensets von als Bots identifizierten Accounts ein Algorithmus trainiert werden. Doch somit würde lediglich ein Bot-ähnliches Verhalten festgestellt, aber tatsächliche Bots können so nicht massenhaft identifiziert werden.

Wenn Bots also massenhaft kaum mit Sicherheit identifiziert werden können, lässt sich nicht abschätzen, wie einflussreich tatsächliche Bots wirklich sind. Trotz solcher Zweifel spielt die Analyse von hochaktiven, ungewöhnlichen digitalen Verhaltensweisen weiterhin eine große Rolle, auch wenn die Frage danach, ob solche Accounts wirklich vollautomatisiert sind, ein Stück weit in den Hintergrund gedrängt wurde.

 

Eine laute und koordinierte Minderheit?

Auch wenn das Ausmaß an Hass und Hetze in den Sozialen Medien bedrohlich erscheinen mag, ist darauf hinzuweisen, dass sie nicht der spontane, organische Ausdruck einer breiten hasserfüllten Bürgerrevolte sind. Im Gegenteil: Eine kleine Minderheit an User*innen ist disproportional für Hate Speech verantwortlich. In einer Studie aus dem Jahr 2018 haben wir am ISD in Kooperation mit der zivilgesellschaftlichen Initiative #IchBinHier festgestellt, dass der Diskurs in vielen Kommentarspalten auf Facebook von Unterstützer*innen extremistischer Gruppen bestimmt wird. Eine lautstarke Minderheit (nur 5% der Nutzer) sind für 50% der Likes bei Hass in den Kommentarspalten verantwortlich und etwa 1% der Accounts für 25% der Likes.

Diese Minderheit ist organisiert und setzt Hate Speech auch strategisch ein. In unserer Studie zu koordinierten Hasskampagnen im Internet konnten wir dokumentieren, dass bestimmte User nicht nur immer wieder gemein­sam hasserfüllte Beiträge in den Kommentarspalten teilen, sondern dass sie ihr Vorgehen auf alternativen Plattformen zum Teil absprechen.

 

Wer ist betroffen?

Obwohl die oben angeführten offiziellen Fallzahlen des BKA zunächst relativ niedrig erscheinen mögen, decken diese natürlich nur die Spitze des Eisbergs ab. Durch Umfragen können wir nachvollziehen, dass Hate Speech darüber hinaus von einer breiteren Gruppe an User*innen wahrgenommen wird. So gaben laut einer Umfrage der Landesanstalt für Medien NRW 94%der Befragten an, im Internet bereits Hate Speech beobachtet zu haben. Hier scheinen jüngere User*innen zudem stärker betroffen zu sein: Laut dem Institut für Demokratie und Zivilgesellschaft gaben 8% der Teilnehmer einer Umfrage an, persönlich von Hasskommentaren betroffen gewesen zu sein. Bei den 18-24jährigen stieg dieser ­Anteil auf 17%.

 

Was sind die Auswirkungen von Hate Speech?

Nun könnte man sich natürlich trotzdem die Frage stellen: Warum die Aufregung? Das ist doch nur das Internet. Hat Hate Speech überhaupt irgendwelche „richtigen“ Auswirkungen? Studien aus den letzten Jahren haben immer wieder gezeigt, dass nicht alle Internetuser*innen im gleichen Ausmaß von Hate Speech betroffen sind. Eine Studie zweier Forscherkolleginnen am ISD, Cécile Guerin und Eisha Maharasingam-Shah, untersuchte im US-Wahljahr 2020 die Art und Häufigkeit von Beleidigungen und Angriffen gegenüber republikanischen und demokratischen Kandidat*innen in den Sozialen Medien. Dabei stellten sie fest, dass Frauen und Kandidaten aus einer ethnischen Minderheit häufiger Ziel beleidigender Inhalte auf Facebook und Twitter werden. Laut Berichten des britischen „The Guardian“ war eine Umfrage bereits 2016 zu ähnlichen Resultaten gekommen: Während Männer online vor allem aufgrund ihrer tatsächlichen oder vermeintlichen Religion, sexuellen Orientierung oder Behinderung attackiert werden, richten sich geschlechtsspezifische Abwertungen doppelt so häufig gegen Frauen als gegen Männer.

Geschlechterspezifische Abwertungen und Drohungen mit sexueller Gewalt könnten auch erklären, dass laut einer Studie des Instituts für Demokratie und Zivilgesellschaft weibliche Umfrageteilnehmer häufiger erwähnten, dass Sie durch Hate Speech emotionalem Stress, Angst und Unruhe ausgesetzt waren als männliche Teilnehmer.

In der gleichen Studie befürchteten 74%, dass durch ein „toxisches Diskussionsklima“ die Meinungsfreiheit indirekt eingeschränkt wird. 54% gaben an, dass sie sich bei der Äußerung der eigenen politischen Meinung aufgrund der Angst vor hasserfüllten Reaktionen zurückhalten.

Hier geht es vor allem um die breite Masse der User*innen. Aber auch Politiker*innen und Journalist*innen werden häufig Zielscheibe von Hasskampagnen. So haben laut einer Umfrage des KOMMUNAL-Magazins knapp 40% der befragten Bürgermeister*innen in Deutschland Erfahrungen mit Hassmails und Einschüchterungen, in 8% der Fälle sogar mit körperlichen Übergriffen. Solche Angriffe auf Personen, die sich in einer Schlüsselfunktion der Demokratie engagieren, zielen auf die Erzeugung einer Drohkulisse ab. Hierdurch sollen politische Gegner*innen mundtot gemachen werden.

Zu ähnlichen Ergebnissen kam eine Umfrage des Instituts für interdisziplinäre Konflikt- und Gewaltforschung bereits 2017. Die Forscher*innen an der Universität Bielefeld hatten Journalist*innen nach ihren Erfahrungen mit Hate Speech befragt. Knapp ein Viertel der Journalist*innen, die bereits zur Zielscheibe von Hate Speech geworden waren, gaben dabei an, dass ihre Arbeit dadurch eingeschränkt werde. Auch hier versuchen die Verfasser*innen von Hasskommentaren, politisch unbequeme Stimmen aus dem digitalen Diskurs zu drängen.

Sowohl bei (Lokal)Politiker*innen als auch bei Journalist*innen kann sich Hate Speech also auf Schlüsselstellen innerhalb unserer Demokratie auswirken und eine einschüchternde und abschreckende Wirkung entfalten.

 

Anstiftung zu Gewalt?

Darüber hinaus wird die Frage der Wechselwirkung zwischen Hate Speech und Gewalt diskutiert: Bleibt es wirklich beim Wort oder führt der Hass auch zur Tat und stiftet zu Gewalt an? Eine vieldiskutierte Studie der Universität Warwick aus dem Jahr 2017 stellte genau diese Verbindung her: Den Forscher*innen zufolge häufen sich Gewaltverbrechen gegen Flüchtlinge in Städten, in denen flüchtlingsfeindliche Facebook-Gruppen intensiv genutzt werden. Leider ist es nicht ganz einfach, die kausale Richtung eindeutig festzustellen: Ist die flüchtlingsfeindliche Stimmung in lokalen Facebook-Gruppen der Auslöser von Gewalt oder ebenso wie die Gewalt eine Folge einer bereits existierenden flüchtlingsfeindlichen Atmosphäre?

Auch wenn die Gewaltfrage daher eher schwierig zu beantworten ist, bleibt festzuhalten dass durch Hate Speech Menschen eingeschüchtert und aus dem öffentlichen Diskurs gedrängt werden sollen. Es stellt sich nun die Frage wie dem entgegengewirkt werden kann.

 

Wie kann Hate Speech entgegengewirkt werden?

Hate Speech entgegenzuwirken ohne das Recht auf Meinungsfreiheit einzuschränken, bleibt eine große Herausforderung. Ein Allheilmittel ist hier leider nicht in Sicht. Dennoch gibt es verschiedene Ansätze in den Bereichen Forschung, Bildung, Zivilgesellschaft und Plattformregulierung. Gemeinsam können diese Ansätze einen vielfältigen Werkzeugkasten bilden, durch den der Hass im Netz zurückgedrängt werden kann.

Der erste Schritt muss dabei sein, die Netzwerke und Dynamiken noch besser zu verstehen, durch die sich Hass und Hetze online so rapide verbreiten. Bei einer Anhörung im US-Senat hatte die Journalistin Janus Kopfstein 2011 erklärt: „Dear Congress, it’s no longer OK to not know how the internet works“, also: es ist nicht länger akzeptabel, nicht zu verstehen, wie das Internet funktioniert. Das gilt heute in noch stärkerem Ausmaß als vor zehn Jahren. Besonders im Kontext der Corona-Krise verbringen die Menschen mehr Zeit als sonst im Internet und mit den Sozialen Medien. Hier brauchen wir vor allem mehr Forschung.

Soziale Medien sind da, um zu bleiben. Daher ist es zusätzlich von großer Bedeutung, digitale Medienkompetenzen und kritisches Denken bei User*innen aller Altersgruppen zu fördern. Bislang waren solche Projekte meist nur auf jüngere Menschen ausgerichtet. Deshalb hat das ISD in Deutschland zusammen mit der gemeinnützigen Hertie-Stiftung und der Robert-Bosch-Stiftung das Business Council for Democracy (BC4D) gestartet. Im Rahmen dieses Programms soll Mitarbeiter*innen in Betrieben die Möglichkeit verschafft werden, in der Mittagspause mehr über digitale Phänomene wie Hate speech und den Umgang damit zu lernen.

Hierbei soll natürlich nicht der Eindruck vermittelt werden, als wäre man digital nur von Hass und Bedrohungen umgeben – das führt nur zu Apathie und Resignation. Stattdessen ist es wichtig zu vermitteln dass wir im digitalen Raum alle sowohl Konsument*innen sind als auch selbst Einfluss darauf haben, wie der digitale Raum aussieht. Statt eindeutige Lösungen vorzustellen, sollten User*innen dazu angeregt werden, das eigene Verhalten zu reflektieren und Verantwortung zu übernehmen. Warum regen mich bestimmte Inhalte auf? Welche Verantwortung habe ich dafür, Informationen, die ich teile, zu überprüfen? Wie reagiere ich auf Hass online?

Neben der Einschränkung der Verbreitung von Hate Speech bzw. deren Sichtbarkeit braucht es eine stärkere Solidarisierung mit und Unterstützung von Betroffenen. Hier muss vor allem die Zivilgesellschaft klare Positionen beziehen. Dafür liefert die Initiative #IchBinHier seit Jahren ein spannendes Beispiel: die Mitglieder der Initiative versuchen, sich aktiv in hasserfüllte Diskussionen einzumischen, und durch faire Beiträge emotionale Diskussionen zu versachlichen. Dabei geben sie sich durch den Hashtag #IchBinHier zu erkennen, um transparent zu bleiben. Neben der wichtigen Abschreckung der Verfolgung strafrechtlich relevanter Formen von Hate Speech kann durch solche Initiativen eine alternative, kooperative und faire Vision davon gelebt werden, wie ein demokratisches und vielfältiges Internet aussehen könnte.

Wie bereits erwähnt sind extremistische Gruppen bei der Verbreitung von Hate Speech besonders aktiv. Diese Gruppen werden auch weiterhin versuchen, ihre Propaganda und Inhalte zu verbreiten. Online gibt es ein ganzes „Ökosystem“ an alternativen Plattformen wie Telegram, 4chan, Parler und Gab, auf die Extremist*innen ausweichen können, wenn sie auf den großen Plattformen gesperrt werden. Daher kann das Problem nicht allein dadurch gelöst werden, dass Inhalte gelöscht und Accounts gesperrt werden. Allerdings haben unsere Untersuchen am ISD ergeben, dass die Reichweite von Extremist*innen auf diesen Plattformen deutlich reduziert wird. Damit verringert sich auch deren Fähigkeit, Hass in breiteren Bevölkerungskreisen zu verbreiten.

Über die Frage der Sperrung von Gruppen hinaus brauchen wir eine breitere Diskussion über die Rolle von Plattform-Algorithmen bei der Förderung bestimmter Inhalte. Immer mehr deutet darauf hin, dass das aufmerksamkeitsmaximierende Geschäftsmodell der Soziale Medien Plattformen emotionalisierende und polarisierende Inhalte fördert. Daher ist die Politik gefragt, um eine stärkere Transparenz von Facebook & Co. über ihre Algorithmen, Inhaltsmoderation und Beschwerdeprozesse einzufordern.

 

Anmerkung

* Überarbeitete Fassung eines Vortrags im Rahmen einer Online-Tagung der „Fuldaer Runde“ des Verbandes evangelischer Pfarrerinnen und Pfarrer in Deutschland am 16. Januar 2021.

 

Über die Autorin / den Autor:

Jakob Guhl, Extremismusforscher und Manager für Politik und Forschung am Institute for Strategic Dialogue London (ISD), Co-Autor von Forschungs­berichten über Rechtsterrorismus, Holocaust­leugnung, Rechtsextremismus auf alternativen Social-Media-Plattformen, Studien zum Thema Hate Speech und Verschwörungserzählungen, zahlreiche Kommentare und Interviews für den Deutschlandfunk, die ARD, den CNN sowie die "ZEIT", "The Guardian", "Die Welt" und andere.

Aus: Deutsches Pfarrerblatt - Heft 5/2021

Kommentieren Sie diesen Artikel
Pflichtfelder sind mit * markiert.
Ihre E-Mail Adresse wird nicht veröffentlicht.
Spamschutz: dieses Feld bitte nicht ausfüllen.