Info-Seiten, Faktenchecks und ein bisschen löschen In der Pandemie versagt Social Media

Die Pandemie legt auch die Stärken und Schwächen sozialer Netzwerke offen. Facebook, YouTube, Twitter und andere verbinden einerseits weltweit Milliarden Menschen, sorgen für Informationszugang und helfen bei der Koordinierung von Hilfsangeboten. Andererseits missbrauchen Regierungen, Extremisten und andere Akteure Social Media zur Verbreitung von Desinformationen. Die Netzwerke haben auf die Herausforderungen reagiert – nach Ansicht von Fachleuten immer noch zu zaghaft.

Stilisierte Personen mit den Logos von Facebook, Twitter und YouTube an zwei Fließbändern, auf denen Posts, Tweets und Kommentare liegen.
Bildrechte: MDR MEDIEN360G

Bekenntnisse zur Mithilfe

Die großen sozialen Netzwerke schlossen sich mit markigen Worten dem Kampf gegen die Pandemie an. Marktführer Facebook schreibt etwa einleitend zu einer seitenlangen Zusammenfassung seiner Maßnahmen: "Als Reaktion auf den Ausbruch des Coronavirus, unterstützt Facebook die Arbeit der globalen Gesundheitsorganisationen, mit dem Ziel, die Menschen zu schützen und umfassend zu informieren."

Google-Chef Sundar Pichai, zu dessen Mega-Konzern das Video-Netzwerk YouTube gehört, schrieb laut Unternehmensblog am 11. März 2020 an seine Mitarbeiter: "Dies ist eine besondere Situation, in der viele Menschen auf uns zählen. Deswegen ist es uns besonders wichtig, ruhig und verantwortungsvoll zu handeln."

Und auch Twitter will helfen, "dass Menschen verlässliche Informationen finden, sich mit anderen verbinden und in Echtzeit erfahren, was vor sich geht", wie aus einem fortlaufend aktualisierten Blogbeitrag hervorgeht.

Strategie: "Entfernen, Reduzieren, Informieren"

Schon lange gibt es eine Debatte darum, ob und in wie weit die großen Anbieter, im Fachsprech Intermediäre genannt, auch für die Inhalte verantwortlich sind, die sie da verbreiten. Denn gerade aus der Politik kommt immer wieder der Vorwurf, Google, Facebook und andere soziale Netzwerke würden massiv dazu beitragen, Verschwörungstheorien zu verbreiten.

In der Corona-Krise gingen alle Plattformen ähnlich vor. "Entfernen, Reduzieren, Informieren" – so beschreibt Facebook seine Strategie. Google bemüht im Englischen eine Alliteration: remove, raise, reduce, reward (entfernen, anheben, reduzieren, belohnen).

Sprich: Die Plattformen fördern nach eigenen Angaben die Verbreitung von hochwertigen Informationen in der Pandemie, demgegenüber drosseln sie die Ausspielung potenziell gefährlicher Inhalte wie Desinformationen und Verschwörungstheorien. Das Löschen von Beiträgen ist als letztes Mittel ebenfalls vorgesehen. So zumindest der theoretische Ansatz.

Datenanalysen: Maßnahmen reichen nicht aus

Nach Einschätzung von Fachleuten sind aber die Maßnahmen der Netzwerke nicht im Ansatz ausreichend, um die Verbreitung von Desinformationen einzudämmen. Der Datenanalyst Philip Kreißel analysierte über Schnittstellen, welche Reichweite entsprechende Beiträge bei Facebook und YouTube bekommen. Sein Fazit: "Man kann den Plattformen keine Untätigkeit vorwerfen, aber es werden so viele Desinformationen gepostet, dass die Netzwerke nicht hinterherkommen." Teils würden eindeutige Falschnachrichten sogar deutlich mehr Reichweite erzielen als seriöse – etwa weil sie mehr Kommentare provozieren und somit vom Algorithmus bevorzugt werden. Zu einem ähnlichen Ergebnis kam übrigens eine Untersuchung der Nichtregierungsorganisation Avaaz.

Kreißel plädiert für eine Stärkung der Faktenchecks, mit denen er seine Analyseergebnisse teilt. "In Deutschland stehen eine Handvoll Faktencheck-Redaktionen vielen Fake-News-Seiten gegenüber. Hier müsste Facebook ansetzen und die vorhandenen Faktenchecks stärker verbreiten", erklärt der studierte Informatiker und Politologe, der sich ehrenamtlich bei der Anti-Hassrede-Organisation "#ichbinhier" engagiert. So gelinge es bislang häufig nicht, gelaufene Faktenchecks auf neue, später gepostete Beiträge mit der gleichen Desinformation zu übertragen. "Es wird häufig nur ein Bild ausgetauscht, dann ist der Beitrag wieder ohne Warnhinweis und Einordnung im Feed."

Warnhinweise verknüpft mit den Links zu den Faktenchecks hält Kreißel generell für besser als das Löschen von Inhalten: "Ich bin dafür, dass sich die Leute selbst ein Bild machen können. Außerdem hat es eine völlig andere Wirkung, wenn jemand nachlesen kann, was an einer Meldung falsch und irreführend ist. Das ist viel besser als ein verschwundener Link."

Kooperation mit Organisationen und staatlichen Stellen

Auch wenn sich die Plattformen der kritischen Debatte nicht entziehen können: Sie betonen lieber das Bereitstellen von Informationen und die Zusammenarbeit mit staatlichen Stellen. So richtete etwa Facebook ein "Coronavirus-Informationszentrum" ein. Auf der Seite stehen Meldungen zur Pandemie etwa von Ministerien, der Weltgesundheitsorganisation (WHO) oder Organisationen wie "Ärzte ohne Grenzen". Auch Hilfsangebote sind verlinkt. Je nach Standort gibt es für die Nutzerschaft regionale Infos.

Im Bemühen als Informationslieferant zu glänzen startete Facebook auch ungewöhnliche Aktionen. So führte beispielsweise Facebook-Gründer Mark Zuckerberg im Juli 2020 ein Live-Interview mit dem prominenten US-Virologen Anthony Fauci, der als Leiter des Nationalen Instituts für Allergien und Infektionskrankheiten (NIAID) den Corona-Krisenstäben unter US-Präsident Donald Trump und jetzt Präsident Joe Biden angehört.

Twitter bündelt ebenfalls Informationen auf einer Extra-Seite. Wer in die Suche geht, findet unter den "Trends für dich" einen Button, der zu Neuigkeiten zur Covid-19-Situation führt. Dort sind neben bereits genannten Quellen vor allem Links zu ARD-Angeboten vertreten.

Rechtlich unproblematisch ist die Bevorzugung staatlicher und öffentlich-rechtlicher Angebote indes nicht. Mitte Februar bewertete das Landgericht München eine Zusammenarbeit zwischen Google und dem Bundesgesundheitsministerium als Verstoß gegen das Kartellrecht. Geklagt hatte Netdoktor.de.

Unklar ist auch, wie erfolgreich die Angebote sind. In einem Bericht an die EU von Dezember nennt Facebook für sein Info-Zentrum im November 14 Millionen Besucher innerhalb Europas. Allerdings nutzen das Netzwerk in Europa über 300 Millionen Menschen. Die Infoseite erreichte also weniger als fünf Prozent der Nutzerschaft.

Drosseln und Entlarven von Desinformation

Zweites zentrales Element der Corona-Strategie der Netzwerke ist das Kontern von gezielt und bewusst verbreiteten Falschinformationen. Dabei verlassen sich die Plattformen auf Überprüfungen durch externe Organisationen. Google nennt die Zahl von 10.000 solcher Faktenchecks, die weltweit rund um die Pandemie entstanden und aktuell in den Produkten des Konzerns zugänglich seien. Auf dieser Website kann man sich demnach all diese Faktenchecks anzeigen lassen. Quellen sind unter anderem der Bayerische Rundfunk, AFP oder die Deutsche Presse-Agentur.

Facebook nennt in seinem neuesten Bericht an die EU dazu einige Zahlen. Im November habe man weltweit zu 22 Millionen Inhalten Faktenchecks angezeigt, davon 3,4 Millionen Inhalte in der EU. Facebook arbeitet hierbei nach eigenen Angaben ausschließlich mit Organisationen zusammen, die vom "International Fact-Checking Network" (IFCN) zertifiziert sind. Aus Deutschland wird auf der Seite bisher das Recherche-Netzwerk Correctiv genannt.

Laut Facebook-Eigendarstellung überprüfe und bewerte man die Richtigkeit von Meldungen anhand der originalen Berichterstattung. Dabei werden beispielsweise die Hauptquellen befragt, öffentliche Daten konsultiert und Medien wie Fotos und Videos analysiert. "Sobald ein Partner für Faktenprüfung uns eine Fehlinformation meldet, ergreifen wir Maßnahmen, damit diese von weniger Personen gesehen wird. Dazu heben wir Artikel zu Faktenprüfung auf all unseren Plattformen hervor und versehen Falschmeldungen mit Warnhinweisen". Wer einen solchen Inhalt teilen möchte, erhalte ebenfalls einen Warnhinweis. Weitere Fragen dazu beantwortet Facebook hier. Allerdings bedeutet diese Praxis, dass die Netzwerke selber entscheiden, nach welchen Kriterien sie vorgehen.

Was ist Desinformation? Die Einigung auf eine Definition für den Begriff der Desinformation fällt bis heute schwer. Einige Elemente sind jedoch unumstritten: Es handelt sich um eine Information, die bewusst falsch gesetzt und gezielt verbreitet wird. […] Häufig dient die Verbreitung von Desinformation einem politischen oder wirtschaftlichen Ziel. Beispiele für diese Ziele sind die Verunsicherung der Bevölkerung über die Bedeutung und Tragweite aktueller Ereignisse oder die Schwächung bestimmter politischer Positionen, Personen oder Unternehmen und damit die Beeinflussung von Meinungsbildung.
Landesanstalt für Medien NRW

Löschen von Inhalten

Das Löschen von Inhalten ist für die Netzwerke der heikelste Punkt – nicht nur in der Pandemie. Immerhin geht es um die Meinungsfreiheit und das Nutzungserlebnis.

In der Praxis führt das zu deutlicher Zurückhaltung beim Entfernen von Inhalten. Facebook meldete an die EU-Kommission für November 2020 beispielsweise die Zahl von 35.000 entfernten Beiträgen innerhalb Europas. Angesichts von 30 Millionen Nutzern allein in Deutschland erscheint das sehr wenig. In den Gemeinschaftsstandards heißt es dazu: "Wir arbeiten daran, Inhalte zu entfernen, die in der realen Welt zu Schäden führen könnten". Umgekehrt heißt das: Unsinn oder Verschwörungstheorien, die keine Gefahr darstellen, bleiben online. Und auch hier entscheidet wieder das Unternehmen selbst und ohne öffentliche Kontrolle, wie es "Gefahr" definiert.

Ähnlich geht Twitter vor. Der Dienst veröffentlichte im Juli 2020 im Zusammenhang mit der Pandemie drei Kriterien, die erfüllt sein müssen, damit Inhalte entfernt werden. Erstens muss der Tweet eine Tatsachenbehauptung zu Covid-19 enthalten. Zweitens muss die Behauptung nachweisbar falsch oder irreführend sein. Und drittens muss die Behauptung zu Schäden führen, wenn andere daran glauben. Bis Ende 2020 entfernte Twitter nach diesen Regeln weltweit 20.000 Tweets, wie aus dem Bericht des Unternehmens an die EU hervorgeht. Laut der Seite Internetlivestats.com setzt die Menschheit allerdings über 500 Millionen Tweets ab – täglich.

Facebook, YouTube und Twitter behaupten darüber hinaus übrigens, auch sämtliche Werbeanzeigen im Zusammenhang mit dem Virus nicht zuzulassen. Hieran gibt es aber erhebliche Zweifel, wie jüngst die tagesschau berichtet.

Expertin: Klare Regeln, mehr Nutzerrechte und Forschung

Die Berliner Digital- und Kommunikationsberaterin Ann Cathrin Riedel attestiert Facebook und Co. grundsätzlich Fortschritte: "Die Plattformen haben sich zum ersten Mal ernsthaft mit Desinformation beschäftigt. Aufgrund des Ausmaßes der Krise haben sie erkannt, was für einen großen Schaden bestimmte Inhalte anrichten können, weil sie Menschenleben kosten", sagt die Vorsitzende des Vereins "Load", der sich für eine liberale Netzpolitik einsetzt.

Andererseits sieht Riedel weiter großes Verbesserungspotenzial. Die Regeln für Löschungen müssten klarer kommuniziert werden. Außerdem bräuchten Nutzerinnen und Nutzer bessere Einspruchsmöglichkeiten, wenn ihre Beiträge entfernt werden. "Das ist wichtig, weil es häufig automatisierte Programme sind, die Inhalte entfernen. Und diese Programme sind nicht so intelligent, dass sie nicht auch Fehler machen", sagt Riedel, die für die Friedrich-Naumann-Stiftung eine Studie über Desinformation in Messenger-Diensten verfasst hat.

Nach ihrer Einschätzung machen die Netzwerke insgesamt zu ungenaue Angaben. Beispielsweise könne man mit der Zahl von mehreren Zehntausend gelöschten Beiträgen bei Facebook nur wenig anfangen. "Wir wissen gar nicht, was für Inhalte das genau sind, wie sie entdeckt wurden und in welchem Umfang sie sich vorher verbreitet haben", erklärt Riedel. Hier fehle es an Zugängen für die Wissenschaft. "Die Plattformen sollten sich stärker öffnen, damit wir mehr über die Herkunft und Verbreitung von Desinformationen erfahren können."