Nachrichten & Themen
Mediathek & TV
Audio & Radio
Klima & UmweltMedizinPsychologieWeltraumGeschichteNaturwissenschaftBildung
Der KI Videogenerator Sora erstellt anhand von Text-Befehlen Videos. Bildrechte: IMAGO / SOPA Images

Wissen-NewsRealismus von OpenAI-Videogenerator Sora weckt Deepfake-Ängste

21. März 2024, 11:25 Uhr

Der hohe Realismus des Sora-Videogenerators von OpenAI weckt Ängste vor Deepfake-Videos für politische Kampagnen. Das KI-Tool ist in der Lage, anhand von Text-Befehlen täuschend echte Videos zu erstellen. Kommunikationswissenschaftler in Mitteldeutschland haben eine unterschiedliche Sicht auf die Problematik.

Der Realismus des neuen KI-Videogenerators Sora des US-amerikanischen ChatGPT-Entwicklers OpenAI weckt Ängste vor brisanten Video-Deepfakes im Wahljahr 2024. Das KI-Tool ist in der Lage, anhand von Text-Befehlen täuschend echte 60-Sekunden-Videos zu erstellen. Wie das Fachmagazin New Scientist berichtet, erreicht Sora seinen hohen Grad an Realismus durch die Kombination zweier KI-Ansätze: Demnach wandelt ein lernfähiges Diffusionsmodell zufällige Bildpixel in ein kohärentes Bild um, während zeitgleich eine Transformer-Architektur sequentielle Daten kontextualisiert und zusammensetzt.

Aufgrund weiterer rasanter Verbesserungen solcher Text-to-Video-Anwendungen rechnet der KI-Experte Hany Farid von der University of California in Berkeley damit, dass es künftig immer schwieriger wird, gefälschte von echten Videos zu unterscheiden. "Diese Technologie könnte, wenn sie mit KI-gestütztem Klonen von Stimmen kombiniert wird, eine völlig neue Front eröffnen, wenn es darum geht, Deepfakes von Menschen zu erstellen, die Dinge sagen und tun, die sie nie getan haben", sagte Farid dem New Scientist.

Auch die Jenaer Kommunikationswissenschaftlerin Edda Humbrecht warnte vor KI-generierten Inhalten, die vor Wahlen in Sozialen Medien und auf Internetplattformen genutzt werden könnten, "um falsche Narrative zu verstärken oder politische Gegner in ein schlechtes Licht zu rücken". Forschungen würden zeigen, dass es für die Menschen immer schwieriger werde, echte von KI-generierten Inhalten zu unterscheiden, sagte sie der Nachrichtenagentur KNA. Der Leipziger Forscher Christian Hoffmann mahnte hingegen, die Wirkung von KI-generierten Bildern vor Wahlen nicht zu überschätzen. "Die Wahrscheinlichkeit, dass ein Wähler über ein glaubwürdiges politisches Deepfake stolpert, ist so gering, dass eine solche Kampagne unnötig Verunsicherung auslösen könnte", sagte er der KNA.

Bei diesem Inhalt von Youtube werden möglicherweise personenbezogene Daten übertragen. Weitere Informationen und Einstellungen dazu finden Sie in der Datenschutzerklärung.

Links/Studien

New Scientist/KNA (dn)

Kommentare

Laden ...
Alles anzeigen
Alles anzeigen

Nachrichten

Mehr zum Thema