Nachrichten & Themen
Mediathek & TV
Audio & Radio
MedienwissenMedienkulturMedienpolitikSuche
Bildrechte: MDR MEDIEN360G

KI als RedaktionsmitgliedWo sind die Grenzen künstlicher Intelligenz?

08. Februar 2022, 20:57 Uhr

An Künstlicher Intelligenz scheiden sich die Gemüter. Das gilt auch und gerade, wenn sie bei Medien eingesetzt wird. Für die einen Teufelszeug, das mächtiger und einflussreicher sein könnte als der Mensch. Oft schwingen Science-Fiction-Vorstellungen von Robotern mit, die am Ende die Welt beherrschen. Für die anderen stellt sie ein unverzichtbares Werkzeug, beispielsweise um große Datenmengen auszuwerten und so überhaupt für journalistische Berichterstattung nutzbar zu machen.

von Steffen Grimberg

Doch was passiert, wenn die KI Fehler macht? Wer haftet? Und vor allem: Wer merkt das überhaupt noch und wann? Beispiel dafür, dass KI längst nicht so perfekt ist wie die "Intelligenz" im Namen suggeriert, gibt es zuhauf. Im Herbst 2020 hatte der schottische Fußballclub Inverness Caledonian Thistle beim Heimspiel gegen die Mannschaft von Ayr United eine KI-gesteuerte Kamera installiert, mit der das Match live ins Netz gestreamt wurde. Kleiner Schönheitsfehler: Die Kamera fand nicht den Ball. Sie verwechselte das Leder vielmehr mit dem glattrasierten Schädel eines Linienrichters und behielt den die ganze Zeit im Bild. 

Debatte über KI ist zu oberflächlich

Dieses Beispiel ist trivial und lustig. Doch wie verhält es sich bei schlimmeren Pannen? Uli Köppen leitet beim Bayerischen Rundfunk (BR) den Bereich BR Data und das AI + Automation Lab. Sie sagt: "Die Verantwortung muss immer in den Redaktionen bleiben". Dafür müssen Journalistinnen und Journalisten sich aber auch auskennen. "Die Debatte wird immer wichtiger, vieles wird aber noch viel zu oberflächlich diskutiert", so Köppen im Gespräch mit MDR MEDIEN360G. "Wir müssen die Methodik, wie KI funktioniert und eingesetzt wird, noch besser erklären und für die Nutzerinnen und Nutzer nachvollziehbar machen". Der BR hat sich für den Einsatz von KI-Richtlinien gegeben. "Egal welche Technologie bei uns zum Einsatz kommt, sie soll kein Selbstzweck sein. Sie muss uns helfen, besseren Journalismus zu machen. Das gilt auch für Künstliche Intelligenz und alle anderen Formen der intelligenten Automatisierung", heißt es darin.

Knackpunkt Umgang mit Daten

"Bei der Nutzung von KI müssen uns unsere Ziele klar sein. Es geht nicht um Quantität, sondern um öffentlich-rechtliche Werte wie Regionalität". Nicht nur beim BR unterstützt KI beispielsweise die Corona-Berichterstattung, indem Daten des Robert-Koch-Instituts automatisch aufbereitet und bis zur lokalen Ebene heruntergebrochen werden. Ein weiteres heikles Thema ist die Personalisierung. Denn hier besteht die Gefahr, dass durch die Empfehlungsmechanismen Filterblasen entstehen und die Vielfalt auf der Strecke bleibt. "Eine Möglichkeit ist, nur einen Teil der Homepage bzw. des Angebots zu personalisieren", sagt Köppen. Außerdem müsse immer transparent gemacht werden, wie mit den Daten der Nutzerinnen und Nutzer umgegangen wird. "Sie müssen auch die Möglichkeit haben, das zu steuern und zu beeinflussen, was mit ihren Daten passiert", fordert Köppen. Doch das ist bei den meisten kommerziellen Anwendungen gerade nicht der Fall. "Hier wird weltweit gerade viel ausprobiert. Ich fände es sehr charmant, wenn es hier eine öffentlich-rechtliche Variante gäbe, die fair mit den Daten umgeht."

Denn KI ist schon heute im journalistischen Alltag nicht mehr wegzudenken. Beim BR wird gerade ein Prototyp getestet, der Spielberichte vom Basketball verfasst. "Die sind dann sofort nach dem Abpfiff bei der Redaktion, die das Ganze dann noch anreichern kann, aber eben viel schneller etwas zum Veröffentlichen hat", erzählt Köppen.

Quelle: Mensch oder Maschine?

Doch merken Menschen überhaupt, ob ein Beitrag von einem Menschen oder einer Maschine stammt oder solch ein hybrides Wesen ist? Für mit KI-Unterstützung automatisch geschriebene Texte liegen hier erste wissenschaftliche Erkenntnisse vor. Sie zeigen, dass es auch darauf ankommt, ob transparent gemacht wird, ob die Texte automatisch generiert oder von einem Menschen verfasst wurden. Ein Team der Universität München hat Probanden vier Artikel vorgelegt, jeweils zwei davon waren vom Computer generiert. Allerdings war jeweils ein Text falsch gekennzeichnet, d.h. einer der von einem Menschen geschriebenen Texte wurde als von der Maschine verfasst deklariert und umgekehrt. Das Ergebnis war eindeutig: Die Probanden legten mehr Wert auf die Angaben der Verfasser, als auf den Inhalt selbst. Beide als journalistische Arbeit gekennzeichneten Artikel wurden mit Blick auf ihre Lesbarkeit besser bewertet, als die vom Computer stammend deklarierten. Dagegen wurden beide als Computerprodukt bezeichneten Artikel in Sachen Glaubwürdigkeit und Objektivität höher eingeschätzt. Auch andere Studien stützen die Beobachtung, dass bei computergenerierten Texten die Glaubwürdigkeit höher eingeschätzt wird.

Ohne Transparenz geht es nicht

Im Umkehrschluss heißt das aber, dass Nutzerinnen und Nutzer nicht mehr erkennen können, ob Beiträge mit Hilfe von KI entstanden sind. Daher - und hier sind sich alle Experten einig - ist es zwingend notwendig, dass bei allen Veröffentlichungen kenntlich gemacht wird, ob KI mit im Spiel ist. Ob das Nutzerinnen und Nutzern genügt, die dem Einsatz von KI in den Medien skeptisch gegenüberstehen, bleibt abzuwarten.

Die britische Tageszeitung Guardian ist hier schon im Herbst 2020 noch einen Schritt weiter gegangen: Sie hat GPT-3, den Sprachgenerator der Open-Source-Plattform OpenAI beauftragt, einen Meinungsbeitrag zu verfassen. Genauer gesagt einen Essay, der die Leserinnen und Leser davon überzeugen soll, dass Roboter in friedlicher Absicht kommen.