Studie zu Social Media-Plattformen Forscher finden "Hass-Autobahnen" im Netz

US-Forscher haben mittels Datenanalyse die Selbstorganisation von Hassgruppen im Netz beobachtet. Löschen helfe nicht, schreiben sie und schlagen stattdessen umstrittene Gegenstrategien vor.

Auf roten Computertasten stehen in in jeweils einer Sprechblase die Buchtaben H, A, T, E
In sozialen Netzwerken hat sich ein gewaltiges Ökosystem des Hasses gebildet (Symbolfoto). Bildrechte: imago images / Panthermedia

Massaker, wie die Amokläufe von Parkland oder Christchurch, die Rekrutierung von IS Kämpfern, sowie die Entführungen und Versklavungen von Frauen als Bräute für Märtyrer – solchen Verbrechen der vergangenen Jahre gingen oft umfangreiche soziale Aktivitäten im Internet voraus und begleiteten sie dann. Hasserzählungen im Netz haben daher nach Ansicht vieler Experten einen starken Einfluss auf die physische Realität. Kritiker werfen Social-Media-Konzernen wie Facebook vor, dass Gegenmaßnahmen bislang zu wenig Wirkung haben.

US-Wissenschaftler um den Physiker und Komplexitätsforscher Neil Johnson von der George-Washington-Universität in der US-Hauptstadt wollen jetzt mit einer umfangreichen Datenanalyse neue Erkenntnisse über die Dynamiken von Hassgruppen liefern. In einem aktuellen Aufsatz in der Fachzeitschrift "nature" zeigen sie, wie Gruppen über Netzwerkgrenzen miteinander interagieren und wie sie den Regulierungsversuchen seitens einzelner Plattformbetreiber ausweichen.

Hass-Autobahnen

Für ihre Studie definierten die Wissenschaftler Internet-Hassgruppen als Gruppen, deren Nutzer Feindseligkeit oder Gewaltdrohungen gegen bestimmte ethnische oder soziale Gruppen formulieren. Im Fokus standen vor allem die Plattformen Facebook und VKontakte (VK). VK stammt aus Russland und ist vor allem in Ost- und Mitteleuropa sehr beliebt. In beiden sozialen Netzwerken identifizierten Johnson und sein Team weit über 1.000 Gruppen, die ihren Kriterien entsprachen. Darunter waren solche, deren Nutzer sich selbst als Neonazis bezeichneten, und solche, die sich zur Terrorgruppe Islamischer Staat bekannten.

Auf Basis von Interaktionen und Links zwischen den Gruppen erstellten die Wissenschaftler eine virtuelle Karte des Online-Hasses, die zeigt, wie verschiedene Gruppen und Netzwerke über "Hass-Autobahnen" miteinander verbunden sind. Die Welt des Online-Hasses stellt sich in der Studie dar wie ein Lebensraum, der sich dynamisch von einem Netzwerk in das nächste ausdehnt.

Hassthemen verbinden sich

Bei der Analyse zeigte sich, dass Hass sowohl geografische als auch inhaltliche Grenzen leicht überwindet. Vor ihrer Untersuchung hatten die Wissenschaftler erwartet, dass die Gruppen nach jeweiligen Hassthemen voneinander abgegrenzt sind. "Aber so war das überhaupt nicht", sagt Johnson. Stattdessen habe sich gezeigt, dass eine Feindseligkeit in die andere hineinreiche. Rassismus, Neonazismus, Islamfeindlichkeit, Frauenfeindlichkeit oder regionale Feindschaften: In sozialen Medien würden Nutzer oft von einem Hassthema zum nächsten gelenkt.

Der Attentäter von Christchurch sei ein Beleg für diese Verwobenheit. Der Verdächtige ist Australier, beging seine Tat aber in Neuseeland. Seine Waffen trugen Botschaften in verschiedenen europäischen Sprachen, die in Online-Hassgruppen auf verschiedenen Kontinenten verbreitet worden seien.

Wie Hassgruppen ausweichen

Diese Verschränkung der Gruppen miteinander wird zum besonderen Problem, wenn Plattformen wie Facebook reagieren und einzelne Gruppen sperren. In diesem Fall wurden Hassgruppen auf anderen Plattformen entsprechend stärker, zeigten die Forschungsdaten. Die Nutzer wichen der Restriktion also einfach aus.

Als konkretes Beispiel nennen die Forscher die Reaktionen auf das Highschool-Massaker in Parkland, Florida, 2018. Damals sei in den Medien die Verbindung des Amokläufers mit dem rechtsextremistischen Ku-Klux-Klan diskutiert worden. Schon zuvor hatte Facebook KKK überwacht und teilweise gesperrt. Deshalb hatten viele Gruppen ihren Mitgliedern empfohlen, auf VK auszuweichen.

Hassgruppen bekämpfen

Auf VK, so schreiben die Forscher, gab es regelrechte Empfangskomitees, die die Neuankömmlinge zu den richtigen Unterseiten dirigierten, "wo die Menschen so hassen wie du". Dabei hätten sich auch stark abgegrenzte Gruppen gebildet, die von den Plattformalgorithmen nur noch schwer aufzuspüren seien. Die Forscher nennen diese halb verborgenen Gruppen "dunkle Pools des Hasses". Später kehrten KKK-Nutzer zu Facebook zurück, gaben ihren Gruppen dort dann aber Namen in der bei VK verbreiteten kyrillischen Schrift. So erschwerten sie den englischen Suchalgorithmen, sie zu finden.

Auf Basis ihrer Beobachtungen schlussfolgern die Forscher: Die Maßnahmen einzelner Plattformbetreiber gegen große Hassgruppen seien sogar kontraproduktiv, da sie zu Ausweichbewegungen und zum Wachstum kleinerer Gruppen führten. Stattdessen schlagen Johnson und sein Team vor, subversivere Strategien anzuwenden.

  1. Zahl der größeren Hass-Gruppen minimieren: Größere Gruppen direkt zu löschen führe zum Wachstum kleinerer oder gleich großer Gruppen mit ähnlichen Themen. Die Forscher schlagen stattdessen vor, kleinere Gruppen still und leise von den Plattformen zu entfernen, während die großen zunächst bestehen bleiben. So werde das Nachwachsen gehemmt.
  2. Zufälliges Löschen von Einzelnutzern: Das zufällige Löschen von Einzelnutzern verkleinere die Hass-Population und reduziere zugleich das Risiko von Gerichtsverfahren.
  3. Förderung von Anti-Hassgruppen: Plattformen sollen nach Anti-Hass-Nutzern Ausschau halten und ihnen bei der Organisation in Gruppen helfen. Dann sollen diese Nutzer die Hass-Nutzer systematisch in Interaktionen verwickeln und es den Hass-Nutzern so erschweren, ihre Botschaften zu verbreiten.
  4. Fake-Nutzer sollen Gräben vertiefen: Die Forscher schlagen automatische Accounts vor, die argumentativ die Gräben zwischen verschiedenen Hass-Themen vertiefen sollen und so die Kommunikation zwischen einzelnen Gruppen stören sollen.

Lob und Kritik von Experten

Verschiedene Wissenschaftler, die nicht an der Studie beteiligt waren, lobten die Forschungsarbeit. "Das ist eine sehr wichtige und zeitaufwändige Studie", sagt die australische Psycholinguistin Ana-Maria Bliuc. "Sie hilft uns zu verstehen, wie nationen- und kulturenübergreifende 'Hass-Brücken' entstehen." Auch der Hallenser Wirtschaftsinformatiker Uwe Brettschneider, der ebenfalls zum Online-Hass geforscht hat, findet die Ergebnisse glaubwürdig. "Das passt gut zur Theorie der Echo Chambers, in denen Menschen aufgrund sich ständig wiederholender und gegenseitig bestätigender Meinungsäußerungen gefangen sein können und schlussendlich eher zu extremistischen Meinungen finden."

Kritik kommt aber zu den vorgeschlagenen Gegenmaßnahmen. Der deutsche Social Media-Experte Thomas Meyer etwa warnt davor, dass beim zufälligen Löschen von Einzelnutzern auch Beobachter getroffen werden können, die die Aktivitäten von Hass-Gruppen im Auge behalten wollen. Künstliche Fake-Nutzer zu schaffen, die Streit säen sollen, verschärfe dagegen das sowieso bereits große Problem mit der Authentizität im Netz weiter.

Bei der Frage, ob Plattformen gezielt Anti-Hass-Nutzer unterstützen und organisieren sollen, gehen die Meinungen der Experten auseinander. Brettschneider meint: "Das ist genau die Art von Diskurs, die zumindest bei noch gemäßigten Diskussionen einer der Grundpfeiler der Demokratie ist, nämlich das Streiten. Ich finde, das sollte sich aber ganz natürlich entwickeln." Meyer warnt hingegen: "Die Algorithmen belohnen interaktionsstarke Posts nachweislich mit Reichweite. Durch geförderte Gegenrede würden Hassgruppen und Hasspostings mehr Interaktion und damit noch mehr Reichweite bekommen." Dadurch drohten beispielsweise gefälschte Nachrichten an noch mehr Nutzer verteilt zu werden.

Was gegen den Hass hilft?

Nahezu alle befragten Experten bezweifeln, dass Plattformen wie Facebook riskante Gegenmaßnahmen wie zufällige Löschungen oder Fake-Accounts ergreifen. Der Studie liege zudem offenbar die Hypothese zugrunde, die Betreiber hätten bereits alles in ihrer Macht Stehende getan, um Hassgruppen zu bekämpfen, sagt Sarah Roberts, kalifornische Internet-Wissenschaftlerin an der Universität in Los Angeles. "Ich glaube nicht, dass man diese Annahme so treffen kann."

Thomas Meyer meint: "Die einzige Möglichkeit gegen Hass ist die Aktivierung der Community. Dazu muss zeitaufwändig und transparent moderiert werden, um andere Nutzer darin zu schulen, wie sie mit Hass umgehen können."

Dieses Thema im Programm: MDR FERNSEHEN | exakt | 17. Juli 2019 | 20:15 Uhr

0 Kommentare

Naika Foroutan 6 min
Bildrechte: MDR/Hannes Beßler
transparent
Bildrechte: MITTELDEUTSCHER RUNDFUNK

46:02 min

Audio herunterladen [MP3 | 42,2 MB | 128 kbit/s] Audio herunterladen [MP4 | 84 MB | AAC | 256 kbit/s] https://www.mdr.de/mdr-sachsen-anhalt/podcast/digital/audio-914152.html

Rechte: MITTELDEUTSCHER RUNDFUNK

Audio