Hass
Bildrechte: Colourbox.de

MLU Halle Ein Algorithmus gegen den Hass

Jeder von uns könnte vermutlich sofort aktuelle Beispiele für “Hate Speech“ im Internet nennen. Das Netz ist – leider – voll von Beleidigungen jeder Art. Wie soll man das in den Griff bekommen? Ein Informatiker aus Halle hat ein Modell entwickelt, das dabei helfen könnte.

Hass
Bildrechte: Colourbox.de

Wenn Uwe Bretschneider jemand fragt, was er gerade tut, dann müsste er wahrheitsgemäß antworten: “Mein Job ist der Hass.“ Und das nicht, weil er seine Arbeit nicht ausstehen kann. Denn Uwe Bretschneider ist gern Wirtschaftsinformatiker, schreibt jetzt sogar seine Doktorarbeit am Lehrstuhl für E-Business der Martin-Luther-Universität Halle-Wittenberg. Aber die beschäftigt sich eben mit “Hass“, neudeutsch gesagt “Hate Speech“, den Beleidigungen, die wir täglich im Internet erleben.

Es ist traurig, diese Kommentare zu lesen. Als Forscher versucht man natürlich trotzdem, sachlich zu bleiben und diese Eindrücke nicht mit nach Hause zu nehmen.

Aber Bretschneider musste diese Kommentare lesen. Denn er hatte sich – ganz wissenschaftlich – gefragt, ob es nicht möglich wäre, sie einfacher zu erkennen. Im Rahmen seiner Doktorarbeit hat der 32-Jährige dafür einen sogenannten Algorithmus entwickelt: einen mathematisch programmierten Ablaufplan, mit dem ein Computer Texte klassifizieren kann.

Der Algorithmus durchläuft im Prinzip Texte und sucht zunächst mal nach beleidigenden Wörtern. Und sobald er so ein Wort gefunden hat, hält er an, schaut: Was ist das für eine Art von Wort? Zum Beispiel  ein Substantiv. Und dann schaut er sich den Kontext des Wortes an: Ob es sich tatsächlich auch um eine Beleidigung gegenüber jemandem handelt.

Damit das Programm weiß, was es tun soll, hat der Wirtschaftsinformatiker eine Datenbank voll beleidigender Wörter gesammelt – zum Beispiel: Dummschwätzer, Ungeziefer, Abschaum… Von solchen Beleidigungen sind gesellschaftliche Gruppen wie Flüchtlinge, Journalisten und Politiker besonders betroffen. Solche Adressaten kann das Programm erkennen.

Zum Beispiel die Aussage: ‘Flüchtlinge sind Parasiten.‘ Da würde der Algorithmus bei dem Wort ‘Parasiten‘ halten und schauen, ob es eine grammatische Verbindung zu dem Wort Flüchtlinge gibt. Und das gibt es in dem Fall – nämlich über eine Form von ‘sein‘. Und so erkennt er quasi über solche grammatischen Muster genau solche Ausdrücke.

Ob das funktioniert, hängt natürlich davon ab, wie gut sein Algorithmus ist und wie genau er Hate Speech erkennt. Das überprüfte Bretschneider mit Hilfe gleich mehrere Datensätze: Er sammelte Mitteilungen des Kurznachrichtendienstes Twitter, Beiträge aus Foren im Internet sowie Kommentare von öffentlich einsehbaren Facebook-Seiten. Diese Daten wertete er zunächst händisch aus, um eine Vergleichsgröße für seine Software zu haben. Im Anschluss ließ er den Algorithmus die gleichen Datensätze analysieren. Das Ergebnis: 70 Prozent der vom System erkannten Treffer waren korrekt, etwa 40 Prozent aller in Frage kommenden Kommentare blieben unerkannt. Das mag zunächst ernüchternd klingen, könnte die Arbeitszeit für Moderatoren und Administratoren der Seiten oder Facebook-Profile aber schon deutlich reduzieren. Einen Zensur- oder Überwachungsalgorithmus habe er nicht entwickelt, sagt Bretschneider.

Es sollte nie darum gehen, das Recht auf freie Meinungsäußerung zu unterdrücken oder bestimmte Meinungen zu verbieten.

Lediglich die Art und Weise, wie diese Meinungen geäußert werden, könne und dürfe man überprüfen. Den Rest müsse eine Demokratie aushalten. Bretschneider hofft, dass er mit seinem Algorithmus den sozialen Netzwerken helfen kann. Bisher gibt es allerdings noch keine Kontakte. Für Administratoren und Moderatoren kann er sich eine Lösung in Form einer App vorstellen, beispielsweise für Facebook oder YouTube. Damit könnten Kommentare zur eigenen Facebook-Seite oder dem eigenen YouTube Channel moderiert werden. Aber das ist noch Zukunftsmusik.

Über dieses Thema berichtete MDR Aktuell im Radio | 06.02.2017 | 17:45 Uhr

Zuletzt aktualisiert: 13. September 2017, 10:34 Uhr