Künstliche Intelligenz Für Fake-Bilder braucht es kein grafisches Können mehr

MDR AKTUELL Mitarbeiterin Rebecca Nordin Mencke
Bildrechte: MDR/punctum.Fotografie/Alexander Schmidt

Donald Trump mit sechs Fingern an einer Hand, logische Fehler bei Kleidung oder sinnfreie Schriftzüge - genaues Hinschauen kann manche Bildfälschung enttarnen, die Künstliche Intelligenz erstellt hat. Doch die Technik schreitet rasant voran. Fachleute sehen besonders bei der Medienbildung Nachholbedarf.

gefälschtes Bild von Ex-Präsident Trump in Sträflingsanzug
Noch schleichen sich in gefälschte Bilder durch KI immer wieder Fehler ein - doch die Technik wird immer ausgeklügelter. Bildrechte: MDR

Russlands Präsident Wladimir Putin, der unterwürfig vor Chinas Präsident Xi Jinping niederkniet; Ex-US-Präsident Donald Trump, der mit Polizeikräften gegen seine Festnahme ringt oder der Papst in weißem Daunenmantel nach Rapper-Attitüde – in sozialen Netzwerken gingen zuletzt gleich etliche Bildfälschungen viral. Zumindest auf den ersten Blick wirken die Bilder täuschend echt. Erstellt worden sind die Fotos von Software, von künstlicher Intelligenz, kurz KI.

Wenn es schnell läuft, ist ein solches Bild von der KI innerhalb von zwei Minuten erstellt.

Jo Bager c't Magazin

Fälschungen gibt es schon so lange es Bilder gibt. Neu ist, dass für Bildfälschungen kein grafisches oder anderweitiges Können mehr notwendig ist, erklärt Experte Jo Bager vom c’t Magazin. "Wenn es schnell läuft, ist ein solches Bild von der KI innerhalb von zwei Minuten erstellt", sagt er MDR AKTUELL. Während bisher etwa bestehende Bilder für manipulative Zwecke in neue Zusammenhänge gesetzt oder mit einigem Aufwand zu Fälschungen mit jeweils beabsichtigter Aussage bearbeitet wurden, kann künstliche Intelligenz inzwischen ein komplettes Motiv selbst erstellen – wie beispielsweise Trump, der vor Polizisten davonrennt oder gegen seine Festnahme heftig protestiert.

Genaues Hinschauen lohnt sich häufig – noch

Gerade bei Personen des öffentlichen Lebens kann die KI dazu auf eine Fülle an Material aus dem Internet zurückgreifen, aus der sie dann etwas völlig Neues – frei Erfundenes – erstellt. Noch entstehen dabei immer wieder logische Fehler, die sich bei genauem Hinsehen erkennen lassen. Typische Merkmale zeigen sich laut Bager etwa bei menschlichen Gesichtern, Ohren seien manchmal komisch verwachsen mit dem Rest oder die Haut sehe mehr nach einer seltsamen Fläche aus, als tatsächlich nach der Struktur von Haut. Ebenso passieren bei bildlich dargestellten Texten häufig Fehler. "Da lohnt es sich mitunter, ins Bild reinzuzoomen um zu gucken: Ist das wirklich Text einer Sprache, die man kennt? Oder hat sich die KI da Text ausgedacht?"

Auch bei einer Serie von gefälschten Trump-Bildern, die der Gründer des Verifikations-Kollektivs "Bellingcat", Eliot Higgins, auf Twitter teilte, lassen sich solche Fehler nachvollziehen. Denn gerade Fälschungen dürften eher selten mit Hinweisen versehen sein wie #Parodie oder – im Fall von Higgins Twitter-Thread – eindeutigen Kommentaren wie "Bilder von Trump machen, wie er verhaftet wird, während ich auf Trumps Verhaftung warte".

Auch mit Händen tut sich Künstliche Intelligenz noch mitunter schwer – und hat dem falschen Trump, der in Sträflingskleidung Gewichte hebt, prompt einen Finger zu viel verpasst.

Auf einer anderen Fälschung, in der Trump Basketball zu spielen scheint, trägt er erstaunlicherweise ein Anzughemd unter seiner Sträflingskleidung. Auch die Ärmel von linkem und rechtem Arm sind nicht stimmig, bei dem Spieler hinter ihm hat sich ein Fehler bei den Beinen eingeschlichen.

Ein Bild, das Trump in Konfrontation mit einem Polizisten zeigen soll, hat nicht nur dem ehemaligen US-Präsidenten eine seltsam unförmige linke Hand verpasst. Zwischen den Armen des Polizisten ragt noch der Teil einer Hand hervor, die nirgends hinführt.

Wieder eine andere Fälschung der KI zeigt einen Wasserstrahl, der aus der Fassade eines Geschäfts zu kommen scheint – das wiederum mit "WORTRKE" einen nicht plausiblen Namen trägt. Logische Unstimmigkeiten ergeben sich zudem bei den Autos im Hintergrund, die teils unvollständig erscheinen und von denen das vorderste bei konsequenter Fortsetzung mit dem Kofferraum im Schaufenster stehen dürfte.

Mehr Informationen zu einem Ereignis suchen

Doch nicht immer sind Bildfehler so offensichtlich und die Technik entwickelt sich rasant weiter. Dabei gehe es den jeweiligen Unternehmen wie KI-Entwickler Midjourney gar nicht in erster Linie um Fälschungen, erklärt Jo Bager. Vielmehr gehe es darum, möglichst schöne, bunte und vielfältige Bilder zu erzeugen. "Wenn man mit diesen KI-Werkzeugen fotorealistische Bilder machen kann, ist das nur ein Aspekt von ganz vielen. Aber generell leisten sich die Unternehmen da gerade ein unglaubliches Wettrennen darum, wer am weitesten vorne ist und wer die schönsten Bilder macht."

Generell leisten sich die Unternehmen gerade ein unglaubliches Wettrennen darum, wer am weitesten vorne ist und wer die schönsten Bilder macht.

Jo Bager c't Magazin

Auch wenn ein Bild keine anatomischen Fehler oder andere offensichtlichen Unstimmigkeiten enthält, ist also Vorsicht geboten. Bei Personen des öffentlichen Lebens kann beispielsweise über die Rückwärts-Bildersuche von Suchmaschinen wie Google geschaut werden, ob das Bild noch an anderer Stelle auftaucht und ob sich etwa Hinweise zum Urheber finden. "Wenn es das nicht gibt, spricht sehr viel dafür, dass es von einer KI erstellt worden ist", erklärt Bager.

Medienbildung gewinnt an Bedeutung

Ein besonders hohes Risiko sieht Bager bei Fälschungen, die nicht Bilder des öffentlichen Lebens abbilden. So könne man etwa mithilfe von Künstlicher Intelligenz einen vermeintlich ausländischen Menschen mit Messer durch eine deutsche Innenstadt gehen lassen. "Ich kann dieses Bild schnell erzeugen und damit auch ganz schnell eine bestimmte Stimmung unter den Leuten erzeugen, die das nicht unbedingt sofort verifizieren."

Zwar kann in solchen Fällen beispielsweise ein Blick auf offizielle Kanäle der Polizei und örtlicher Medien Hinweise geben, ob tatsächlich eine Bedrohungslage besteht. Doch gerade Bilder, die das eigene Weltbild zu bestätigen scheinen oder besonders kontroverse Inhalte transportieren, sollten zunächst kritisch hinterfragt und geprüft werden. "Es braucht da vor allem Aufklärung, dass es diese technischen Mittel gibt, die sich missbrauchen lassen", betont Bager.

Auch die Tools zum Erkennen von Fälschungen entwickeln sich laufend fort. Doch inzwischen ist es teils einfacher, ein Bild zu fälschen als die Fälschung zu enttarnen. Um ein Bild sorgfältig zu überprüfen, können neben technischen Tools weitere Recherchen notwendig sein. Denn was nicht eindeutig Fake ist, ist nicht automatisch wahr.

MDR (rnm)

Dieses Thema im Programm: MDR AKTUELL | Das Nachrichtenradio | 20. März 2023 | 12:00 Uhr

1 Kommentar

Lyn vor 9 Wochen

Nanana.
Gab es etwa keinen Beitrag, der in das offizielle Weltbild passt?

Mehr aus Politik

Perspektive aus der Luft: Eine 200 m lange serbische Flagge auf einer Straße ausgerollt. 1 min
Proteste des serbisch-stämmigen Bevölkerungsteils im Norden des Kosovo gehen weiter Bildrechte: AP
1 min 31.05.2023 | 14:41 Uhr

Die Nato verstärkt ihre Truppen im Westbalkan um 700 weitere Soldaten. Das teilte Generalsekretär Jens Stoltenberg mit. Hintergrund sind anhaltende Proteste der serbisch-stämmigen Bevölkerung.

Mi 31.05.2023 13:46Uhr 01:08 min

https://www.mdr.de/nachrichten/welt/politik/video-kosovo-nato-zvecan-stoltenberg-kfor-westbalkan-serben-albaner-nordkosovo100.html

Rechte: AP, Reuters

Video
Angebliche Drohnenattacken in Moskau 1 min
Angebliche Drohnenattacken in Moskau Bildrechte: EBU

Mehr aus der Welt

Das Camp 4 kurz vor dem Gipfel des Mount Everest versinkt im Müll. 1 min
Bildrechte: mdr
1 min 01.06.2023 | 13:15 Uhr

Kaputte Zelte, Schuhe, Dosen, Sauerstoffflaschen, Fäkalien und mehr: Der höchste Berg der Welt versinkt immer mehr im Müll. Ein Video zeigt das letzte Camp vor dem Gipfel als riesige Müllhalde.

Do 01.06.2023 13:01Uhr 00:34 min

https://www.mdr.de/nachrichten/welt/panorama/video-mount-everest-muell-100.html

Rechte: MITTELDEUTSCHER RUNDFUNK

Video

Nachrichten

Polnische Soldaten der von der Nato geführten Kosovo-Friedenstruppe KFOR 3 min
Bildrechte: dpa
3 min 31.05.2023 | 12:20 Uhr

Bei Ausschreitungen im Kosovo sind auch 30 Soldaten der Internationalen Schutztruppe verletzt worden. Hintergrund der Unruhen ist die Einsetzung neuer albanisch-stämmiger Bürgermeister. Dazu unsere Medienschau.

MDR AKTUELL Mi 31.05.2023 06:36Uhr 02:41 min

Audio herunterladen [MP3 | 2,5 MB | 128 kbit/s] Audio herunterladen [MP4 | 5 MB | AAC | 256 kbit/s] https://www.mdr.de/nachrichten/podcast/presseschau/audio-kosovo-unruhen-kfor-eu-serben-albaner-100.html

Rechte: MITTELDEUTSCHER RUNDFUNK

Audio