Nachrichten & Themen
Mediathek & TV
Audio & Radio
Klima & UmweltMedizinPsychologieWeltraumGeschichteNaturwissenschaftBildung

Künstliche IntelligenzVideo-Deepfakes: Übernimmt die KI dieses Jahr den Wahlkampf?

07. März 2024, 11:43 Uhr

Eine putzige Katze, die sich bei Frauchen im Bett das Frühstück einfordert. Oder eine Frau, die bei Regenwetter zwischen den Glitzerfassaden von Tokyo flaniert: Open AI – das große KI-Haus, aus dem auch ChatGPT kommt – hat Mitte Februar wieder einen draufgelegt: KI kann jetzt auch Video und dank Sora täuschend echt. Das beunruhigt zunächst, im Hinblick auf die in diesem Jahr anstehenden Wahlen in Deutschland und Europa. Mit Recht?

Das Märchen geht so: Sie würde nur Pommes essen und deswegen seien ihr die Kartoffeln der Landwirtinnen und Landwirte – und deren Sorgen – gar nicht mal so wichtig. Das, was die Grünen-Bundesvorsitzende Ricarda Lang da angeblich im Lanz'schen Talk-Sessel zum Besten gegeben hat und Anfang des Jahres auf der Videoplattform Tiktok kursiert ist, war ein Fake. Und obendrein noch ein schlecht gemachter. Wahrscheinlich auch deshalb ohne weitere politische Einflüsse.

"Das ist eine gemeine Stichelei, würde ich sagen, die bei denjenigen, die Ricarda Lang nicht mögen, wahrscheinlich für Unterhaltung gesorgt hat", so das Urteil von Christian Hoffmann, Professor für Kommunikationsmanagement an der Uni Leipzig. Mimik und Gestik passen nicht zum Gesagten, die Sprache wirkt unnatürlich: Sonderlich viel Mühe und Leidenschaft an der Fälschung stecken in diesem Video schon mal nicht.

Schlechte Fake-Videos wollen nicht glaubwürdig sein

Tja. Müssen sie auch nicht, sagt Christian Hoffmann, denn der Verbreitung solcher Videos schade das nicht sonderlich: "Also wir wissen aus der Forschung, dass auch die Personen, die die Missinformation posten, nicht selten tatsächlich wissen, dass das nicht echt ist." Desinformation ist also nicht nur bei denjenigen Vorsatz, die sie in Umlauf bringen – sondern mitunter auch bei den teilungswilligen Rezipienten. Denn wenn der Fake zum eigenen Weltbild passt, dann sei das eben trotzdem eine lustige Sache, so Hoffmann.

Alles anzeigen

Damit Falschinformationen und Videofakes aber tatsächlich funktionieren, müssen Sie vor allem eines sein: plausibel. Das gilt auch für täuschend echte Deepfakes. So sei ein künstlich generierter Bundeskanzler, der eine aktuelle außenpolitisch schwierige Situation betont, durchaus glaubwürdig. "Wenn ich dagegen jetzt Bundeskanzler Scholz, ganz fiktiv, in einer Situation sehe, wo er koksend in Umgebung von Prostituierten gezeigt wird, dann würde ich vielleicht verdutzt reagieren und denken: Das ist jetzt irgendwie seltsam." Das bedeutet: Deepfakes sind dann überzeugend, wenn sie eigentlich etwas bestärken, was wir ohnehin schon zu wissen glauben.

Was sind Deepfakes?Unter Deepfakes bezeichnet man gefälschte, täuschend echte audiovisuelle Inhalte, die mithilfe von generativer KI entstanden sind. Reelles Material dient dabei dem Training – deshalb funktionieren Deepfakes bei Schauspielerinnen und Schauspielern besonders gut. Mit Deepfake-Technologie war es zum Beispiel auch möglich, in der Serie "Neue Geschichten vom Pumuckl" die bekannte Pumuckl-Stimme des bereits verstorbenen Hans Clarin anzubieten.

Auch Edda Humprecht, Professorin für Digitalisierung und Öffentlichkeit an der Uni Jena, betont, dass unplausible Fakes schnell entlarvt würden: "Man muss dazusagen, bisher haben Deepfakes in der politischen Kommunikation keine sehr große Rolle gespielt. Der Großteil war eher im pornografischen Bereich, aber das heißt jetzt nicht, dass nicht zukünftig im Vorfeld von Wahlen, politische Akteure ins Visier genommen werden."

Bisher haben Deepfakes in der politischen Kommunikation keine sehr große Rolle gespielt

Edda Humprecht | Uni Jena

Gerade bei starken Emotionen wie Angst und Empörung steige Humprecht zufolge das Risiko, dass falsche Inhalte geteilt werden. Mit dem Modell Sora, das der KI-Pionier Open AI kürzlich präsentiert hat, lassen sich solche Gefühle durch täuschend echte Videos noch intensiver auslösen. Die bis zu einer Minute langen Clips überraschen durch ihre scheinbare Makellosigkeit und sind eine ganz andere Hausnummer als der Pommes-Fake. Und auch als das, was noch vor gerade einmal einem Jahr viral ging: Ein Spaghetti futternder Will Smith, der einem angesichts der ganzen KI-Fehler und Bildfragmente fast schon Leid tut.

Open AI und Sora: Eine Frage des Aufwands

Der Kommunikationsforscher Christian Hoffmann betont den immens hohen Aufwand, der hinter den neuen Sora-Clips steht. Zu dieser Auffassung kommen auch andere Fachleute. So hat der KI-Experte Gary Marcus die Clips bereits durch eine Fehleranalyse entzaubert und weist auch noch mal darauf hin, dass viele der Videos lediglich Slow Motion-Inhalte darstellen würden, bei denen wenig Bewegung und Veränderung passiere. Harte Schnitte wären weitaus komplexer. (Das sind so Dinge, über die man sich erstmal keine Gedanken macht, wenn man das erste Mal mit offener Kinnlage in die KI-Röhre blickt.)

Die Branchenkenner vom Social Media Watchblog schreiben: Selbst die Auswahl besonders gelungener künstlich generierter Videos sei eben nicht fehlerfrei und nur oberflächlich beeindruckend. Und der Ressourcenaufwand, unter dem die kurzen Sequenzen generiert wurden, sowie der Zeitaufwand, einen Clip zu erstellen, völlig unklar. Open AI hält sich dazu trotz verschiedener Medienanfragen bedeckt. Und präsentiert die Clips als Stummfilm. Deepfake-Stimme und Deepfake-Bild müssten für eine gelungene politische Fälschung künftig erstmal adäquat miteinander verwoben werden, was einfacher klingt als es ist. Und vielleicht noch länger dauert: Das Social Media Watchblog weist darauf hin, es dürfe nicht davon ausgegangen werden, dass die Entwicklung künftig immer so große Sprünge mache wie im vergangenen Jahr.

KI-Video-Fakes: Ein Problem für bevorstehende Wahlen?

Kritisch für die jetzt anstehenden Wahlen ist die von Open AI noch unter Verschluss gehaltene neue Technik vorerst nicht, sagt Christian Hoffmann. Menschen ließen sich in ihrer politischen Meinung auch nicht so einfach verändern, höchsten verstärken: "Es bräuchte schon sehr viel mehr als nur ein Videoschnipsel, über das ich im Internet stolpere, um zum Beispiel von einem grünen Wähler plötzlich zu einem Unionswähler zu werden."

Deepfakes – erst dann wirklich überzeugend, wenn sie auch plausibel sind. Bildrechte: imago/Westend61

Trotzdem, die Gefahr ist grundsätzlich real, erklärt Kommunikationswissenschaftlerin Edda Humprecht: "Die öffentliche Meinung kann manipuliert werden, und auch das Vertrauen in demokratische Institutionen, in Wahlen und so weiter kann untergraben werden."

Menschen an Glaubwürdigkeit interessiert, Maßnahmen gegen Deepfakes müssen aber kommen

Immerhin: Die meisten Menschen beziehen Informationen nach wie vor aus verlässlichen Quellen, betont Christian Hoffmann. Auch wenn viele glauben, für Fehlinformationen wenig anfällig zu sein und sich dahingehend eher Sorgen um ihre Mitmenschen machen. "Gutgläubige Trottel sind immer die anderen", betitelt es Spiegel-Kolumnist Christian Stöcker treffend, was eine aktuelle Studie der Bertelsmann-Stiftung zutage gefördert hat (siehe Grafik weiter oben im Text). Zu den Erkenntnissen zählt auch, dass Desinformation als großes gesellschaftliches Problem wahrgenommen wird.

Künftig müsse sich die Gesellschaft ohnehin grundsätzlich von der Idee verabschieden, dass Fotos und Videos immer die Realität zeigen, sagt Hoffmann. Technische Filterlösungen werden KI-generierte Inhalte in Zukunft zwar durchaus erkennen können, letztendlich könnte es aber auf ein Katz-und-Maus-Spiel hinauslaufen. Um mit der neuen Informationsordnung umzugehen, brauche es neben einer entsprechenden Gesetzgebung auch die Anstrengungen durch soziale Netzwerke. Und effektive Bildungsprogramme, schlägt Edda Humprecht vor: "Dann sollte man vor allen Dingen auch trainieren, dass Medieninhalte auch kritisch hinterfragt werden, dass man weiß, wo man professionell produzierte verlässliche Informationen finden kann und wo man vielleicht eher vorsichtig sein sollte. Und wo man eben auch überprüfen kann, ob solche Inhalte falsch sind." Die Schulung von Medienkompetenz eben.

Angst dürfe man allerdings nicht schüren, appelliert Christian Hoffmann. "Wenn wir jetzt natürlich die Idee einpflanzen, dass das Internet ein gefährlicher Ort ist, in dem nur Desinformation herumschwirrt, führt das im Zweifelsfall dazu, dass Bürger plötzlich Dinge nicht mehr annehmen, die wahr sind." Und zwar genau dann, wenn die nicht ins eigene Weltbild passen. Ein Weltbild etwa, in dem Ricarda Lang die Landwirtschaft angeblich egal sei, weil sie doch sowieso denke, Pommes würden in der Gefriertruhe wachsen.

Kommentare

Laden ...
Alles anzeigen
Alles anzeigen

Nachrichten

Mehr zum Thema