Nachrichten & Themen
Mediathek & TV
Audio & Radio
Klima & UmweltMedizinPsychologieWeltraumGeschichteNaturwissenschaftBildung
Bildrechte: MDR WISSEN

Wissen-NewsPlagiatsforscherin: KI-generierte Texte werden nicht zuverlässig erkannt

29. Januar 2024, 10:31 Uhr

Wenn Hausarbeiten mit Künstlicher Intelligenz statt echtem Gehirnschmalz verfasst werden, kann das von entsprechenden Detektoren nicht zuverlässig erkannt werden, warnt eine KI-Forscherin.

Wenn Software an Software scheitert: Jeder fünfte durch Künstliche Intelligenz erzeugte Text kann von entsprechenden Detektoren nicht als solcher erkannt werden. Zu dem Schluss kommt ein Forschungsteam im International Journal for Educational Integrity, unter ihnen die Berliner Plagiatsforscherin Debora Weber-Wulff. Das Team hat 14 Software-Angebote zum Aufspüren von KI-generierte Texten untersucht.

Damit bleibt ein nicht deklarierter Einsatz etwa bei Abschlussarbeiten, die unter Zuhilfename von generativen KI-Tools wie Perplexity, ChatGPT oder Bard entstanden sind, aus Experteninnensicht vorerst schwer nachweisbar. "Die Hoffnung, dass es eine einfache Softwarelösung zum Enttarnen von KI-Texten gibt, wird sich nicht erfüllen", so Weber-Wulff.

Die Zunahme von KI-generierten Inhalte ist auch ein Problem bei Onlineinhalten, warnte der Informatiker Jannek Bevendorff vergangene Woche bei MDR WISSEN. Bevendorff hat zuletzt an der Bauhaus-Universität in Weimar zum Thema Qualitätsverlust bei Suchmaschinenergebnissen geforscht und festgestellt, dass die Zahl minderwertiger Inhalte zunimmt, was sich durch den Einsatz generativer KI noch verschärfen dürfte. Solche Inhalte sind für Nutzende nicht immer sofort denen zu unterscheiden, die von Menschen verfasst wurden.

flo, mit dpa

Kommentare

Laden ...
Alles anzeigen
Alles anzeigen

Nachrichten

Mehr zum Thema