Nachrichten & Themen
Mediathek & TV
Audio & Radio
SachsenSachsen-AnhaltThüringenDeutschlandWeltLeben
Das wichtigste Mittel im Kampf gegen Deepfakes ist Aufklärung. Bildrechte: picture alliance/dpa | Michael Kappeler

SatireaktionScholz-Deepfake laut Experten nicht besonders gut gemacht

29. November 2023, 07:07 Uhr

Am Montag hat die Satiregruppe "Zentrum für politische Schönheit" eine gefälschte Videoansprache von Bundeskanzler Olaf Scholz veröffentlicht. Darin verkündet Scholz vermeintlich, die AfD verbieten zu wollen. Das Video ist ein so genannter Deepfake, der mit Künstlicher Intelligenz angefertigt worden ist. Das Video war nicht besonders gut gemacht, wirft aber die Frage auf, wie künftig mit so etwas umgegangen werden sollte.

Es gibt sie immer wieder, diese Nanu-Momente im Deepfake-Video von Bundeskanzler Olaf Scholz. Seine Stimme scheint seinen Lippen voraus zu sein. Die Lippen sind ohnehin seltsam dünn, Unterkiefer und rechte Wange wirken jünger als der Rest des Gesichts. Der Fake sei deshalb schnell zu erkennen, erklärt Martin Tschirsich vom Chaos Computer Club. "Es hat fast den Anschein, als hätten die Urheber hier bewusst nicht den Anschein erwecken wollen, dass das eine echte Aufnahme ist."

Denn mittlerweile sei schon mit einfachen Mitteln deutlich mehr möglich. "Wir können gerade die Lippen-Synchronität heute durch KI maschinell herstellen. Wir können durch den Transfer von Mimik von einem Gesicht auf das andere deutlich bessere Fälschungen erstellen, die viel schwerer zu erkennen sind", erklärt Tschirsich.

Kampf gegen Deepfakes wird immer härter

Das Scholz-Video aus der Aktion der Satiregruppe "Zentrum für politische Schönheit" entspricht also nicht dem aktuellen Stand der Technik, der ist schon viel weiter.

Schon jetzt könne man zum Beispiel Video-Ident-Verfahren überwinden und so im Namen einer anderen Person beispielsweise ein Konto eröffnen. Bald werde Künstliche Intelligenz noch weiter sein, ist der Experte für Informationssicherheit überzeugt. So weit, dass ein falscher Olaf Scholz nicht mehr von einem echten zu unterscheiden ist.

Die Jagd gegen die Deepfake-Technologie und ihre Macher könne man nur verlieren, sagt Martin Tschirsich. "Das ist ein Wettrennen zwischen denjenigen, die mit KI die Fälschungen produzieren und denjenigen, die versuchen, mit KI den Fälschungen aufzulauern." Letztendlich würden wir als Menschen verlieren.

Aufklärung ist zentral

Trotzdem müssen wir nicht resignieren. Es gebe weitere Möglichkeiten, der Gefahr von Fakes zu begegnen, erklärt Nicolas Müller vom Fraunhofer Institut für Angewandte und Integrierte Sicherheit. Eine Option ist, echte Videos erkenntlich zu machen und sie so von Deepfakes abzugrenzen. "Das ist eine Idee, dass man Inhalte, die authentisch sind, quasi mit einem Wasserzeichen oder einer Signatur versieht. Dass also die Kamera das Bild signiert."

Dadurch könne man nachvollziehen, dass dieses Bild von dieser Kamera an diesem Ort aufgezeichnet worden ist. "Wenn man eine Mediadatei sieht und die hat dieses Zertifikat, dann kann man dem vertrauen", sagt Müller.

An der Umsetzung dieser Idee wird weltweit gearbeitet. Das Allerwichtigste im Kampf gegen Deepfakes ist jedoch Aufklärung – eine gewisse Skepsis gegenüber Videos und Audios zu schaffen und zwar nicht nur im Internet, sagt Nicolas Müller. Denn auch am Telefon setzen Betrüger immer häufiger KI ein, um sich zum Beispiel als Enkel auszugeben und ältere Leute zum Überweisen von Geld zu überreden. 

Dieses Thema im Programm:MDR AKTUELL | Das Nachrichtenradio | 29. November 2023 | 06:13 Uhr

Kommentare

Laden ...
Alles anzeigen
Alles anzeigen