Ein Radiergummi auf einer Tastatur
Bildrechte: imago/Sven Simon

Nach dem Anschlag in Halle Wann müssen Online-Plattformen Inhalte löschen?

Videosequenzen vom Attentat in Halle wurden tausendfach geteilt. Auch unter Jugendlichen kursierten die grausamen Bilder. Was tun Online-Plattformen gegen die Verbreitung rechtswidriger Inhalte?

Ein Radiergummi auf einer Tastatur
Bildrechte: imago/Sven Simon

Wie viele Menschen das Attentat-Video vollständig oder in Auszügen gesehen haben, wird man wohl nie ergründen können. Aber traurige Gewissheit ist: Die grausamen Bilder wurden über Accounts auch von Teenagern verbreitet und angesehen. Ursprungsquelle ist das zu Amazon gehörende Gamerportal Twitch, wo der Attentäter von Halle seinen Zerstörungszug über seinen Account streamte und im Anschluss automatisch hochladen ließ.

Wann werden Videos von Plattformen gelöscht?

Nach dem seit 2018 in Deutschland geltenden Netzwerkdurchsetzungsgesetz müssen die großen Netzwerke "offensichtlich rechtswidrige" Inhalte binnen 24 Stunden löschen. Die Unternehmen sind nicht verpflichtet, selbst aktiv nach rechtswidrigen Inhalten zu suchen. Sie müssen lediglich nach Meldungen von außen reagieren. Die Netzwerke müssen dafür ein Formular bereitstellen, über das die Verstöße angezeigt werden können. Das Gesetz nimmt hier soziale Netzwerke in die Pflicht, die mindestens zwei Millionen registrierte Nutzer haben.

Das Gesetz gilt nur für "Telemediendiensteanbieter, die mit Gewinnerzielungsabsicht Plattformen im Internet betreiben, die dazu bestimmt sind, dass Nutzer beliebige Inhalte mit anderen Nutzern teilen oder der Öffentlichkeit zugänglich machen", erklärt das Bundesamt für Justiz. "Dienste der Individualkommunikation, insbesondere E-Mail- oder Messenger-Dienste (zum Beispiel WhatsApp) fallen hingegen nicht darunter", heißt es weiter. Ausgenommen seien auch "Online-Spiele, wo die Nutzer als Nebenfunktion auch Inhalte teilen können".

Bei Thomas-Gabriel Rüdiger, Cyberkriminologe der Polizeihochschule Brandenburg, trifft das auf Unverständnis. "Wenn es uns darum geht, auch Generationen vor Extremismus zu schützen, vor diesen Meinungen, dann müssen wir da ansetzen, wo sie unterwegs sind, und das ist in den Spielen. Wie kann es sein, dass dort, wo Geld eingenommen wird, es keine verpflichtende Meldefunktion gibt?", kritisiert er. Der Cyberkriminologe zeigt Beispiele, wie man bei Online-Spieler Gruppen beitreten kann. Nach der Eingabe des Wortes "Juden" in das Suchfenster, werden ihm in Verknüpfung mit dem Wort "Jude" Gruppennamen angezeigt, die rechtsextremistischen Inhalts sind. So etwa "Judenhasser" oder Juden in den Ofen". "Und es gibt keine Meldemöglichkeit!", erklärt der Experte.

Wie kann es sein, dass dort Geld eingenommen wird, es keine verpflichtende Meldefunktion gibt?

Thomas-Gabriel Rüdiger, Cyberkriminologe der Polizeihochschule Brandenburg Exakt

Nutzer sollten rechtswidrige Inhalte melden

Plattformen handeln gemäß dem Netzwerkdurchsetzungsgesetz zumeist erst, wenn ihnen Beiträge gemeldet werden, die rechtswidrige Inhalte aufweisen. Der Stream des Halle-Attentäters selber blieb weitestgehend unbeachtet, fünf Personen hatten ihn nach Angaben von Twitch angeklickt. Ob die User wussten, was sie da sehen und die Geschehnisse in Halle verfolgten oder ob sie zufällig darauf gelangten, wird schwer nachzuweisen sein. Aber keiner von ihnen hat offenbar den Inhalt gemeldet. Der Stream dauerte 35 Minuten.

Eine Meldung erreichte Twitch nach Angaben des Unternehmens, als die Aufzeichnung auf der Plattform abrufbar war. Von der Einstellung bis zur Löschung des Videos vergingen jedoch 30 Minuten, in denen das Video nach Angaben von Twitch 2.200 Mal angeschaut wurde. Vor der Löschung wurde es aber von Nutzern heruntergeladen und fand so seinen Weg über verschiedene Online-Kanäle.

Grenzen der Löschroutine

Ist ein gemeldeter Beitrag als terroristischer Inhalt identifiziert, kommt bei den das Programm "Global Internet Forum to Counter Terrorism" (GIFCT) unterstützende Unternehmen das Hash-Verfahren zur Anwendung. Online-Riesen wie Facebook, Instagram, YouTube und Twitter haben sich hier zusammengetan und nach dem Anschlag in Christchurch im März 2018 diese Erkennungstechnologie entwickelt. Im Hash-Verfahren bekommen Beiträge einen digitalen Fingerabdruck. Nach Angaben der "Süddeutschen" habe Twitch den "Hash" ermittelt und weitergegeben.

Das Hash-Verfahren greift, wenn identische Versionen des Videos an anderer Stelle verbreitet wurden. Wurde der Beitrag neu geschnitten, gekürzt oder anderweitig verändert, muss der Inhalt vom betreffenden Betreiber neu erkannt, geprüft, gesperrt und im Kampf gegen die Weiterverbreitung wieder gehasht werden.

100-prozentige Erkennung gibt es noch nicht

Facebooks Chief Technology Officer Mike Schroepfer benennt in der "Welt" ein Dilemma: "Das Grundproblem ist, dass wir konfrontativ gegen die Kreativität einiger weniger Nutzer filtern müssen". So käme es immer wieder zum "Katz-und-Maus-Spiel", die Filter müssten immer wieder neu angepasst werden. Die Technik stoße bei der Sichtung von Videos auch an ihre Grenzen. "Wir haben bislang schlicht keine Trainingsdaten, um eine künstliche Intelligenz darauf zu trainieren", wird Schroepfer in dem Beitrag zitiert.

Im Falle des Christchurch-Attentat-Videos habe YouTube ganz auf Filter gesetzt, um möglichst viele der millionenfachen Kopien zu löschen, so die "Süddeutsche". Dadurch seien auch viele Videos in das Löschraster gefallen, die bei sonstiger Sichtung durch Menschenhand nicht gesperrt worden wären. Zudem gebe es noch keinen Suchalgorithmus "für Bild- oder Videoerkennung mit einer Trefferquote von 99 Prozent", so die "Welt". Der Mensch als Kontrollinstanz ist damit zunächst nicht wegzudenken. Sowohl auf der Nutzer- als auch auf der Unternehmensseite.

Dieses Thema im Programm: MDR FERNSEHEN | Exakt | 16. Oktober 2019 | 20:15 Uhr

Zuletzt aktualisiert: 16. Oktober 2019, 15:31 Uhr