Nachrichten & Themen
Mediathek & TV
Audio & Radio
Klima & UmweltMedizinPsychologieWeltraumGeschichteNaturwissenschaftBildung
Je menschlicher ein Chatbot daher kommt, desto weniger schlimm wird er beleidigt. Bildrechte: IMAGO / ingimage

Wissen-NewsTU Dresden: Menschenähnliche Chatbots werden etwas weniger beleidigt als neutrale

12. April 2024, 10:45 Uhr

Menschenähnliche Chatbots werden etwas weniger beleidigt als neutrale Dialogsysteme. Gegen Beleidigungen wie "Doofer Computer" sind aber auch Chatbots mit Namen, Geschlecht und Gesicht nicht gefeit, so eine Studie der TU Dresden.

Menschenähnliche Chatbots – also textbasierte Dialogsysteme zum Chatten, die mit Namen, Geschlecht und Bild versehen sind und ihre Botschaften mit Emojis verstärken, sorgen bei Nutzern generell für mehr Zufriedenheit gegenüber neutral gestalteten Systemen. Gibt ein Chatbot jedoch unbefriedigende Antworten, führt dies auch bei einem Chatbot mit menschlichen Attributen zu Frustration und Aggressivität beim Nutzer.

Bei diesem Inhalt von Youtube werden möglicherweise personenbezogene Daten übertragen. Weitere Informationen und Einstellungen dazu finden Sie in der Datenschutzerklärung.

Das hat ein internationales Forscherteam unter Leitung des Wirtschaftsinformatik-Professors für Intelligente Systeme und Dienste Alfred Brendel von der TU Dresden herausgefunden. Der Studie zufolge zeigen etwa zehn Prozent der Nutzer aggressives Verhalten gegenüber virtuellen Assistenten, wenn diese falsche oder zumindest verwirrende Antworten geben. Im schlimmsten Fall, so ein Fazit der Studie, können Aggressionen gegenüber einem Chatbot, wozu auch Beschimpfungen wie "Doofer Computer" gehören, auch negative Einstellungen zur Webseite oder dem Anbieter zur Folge haben, für die der Chatbot arbeitet.

Brendel und sein Team hatten ursprünglich vermutet, dass menschliche Chatbots, die unbefriedigende oder falsche Antworten geben, das Aggressions- und Frustrationslevel der Nutzer generell senken könnten. Dem ist zwar nicht so. Im Gegensatz zu einem neutralen Chatbot verringert sich bei einem menschlicheren Chatbot allerdings die Intensität des aggressiven Verhaltens. So verwendeten User seltener beleidigende Äußerungen. Anhand der Ergebnisse der Studie rät Brendel Software-Entwicklern, "bei der menschenähnlichen Gestaltung bedacht vorzugehen und genau zu überlegen, welche positiven wie negativen Effekte zusätzliche menschenähnliche Gestaltungselemente wie Geschlecht, Alter oder bestimmte Namen haben können."

Links/Studien

(dn)

Dieses Thema im Programm:MDR KULTUR - Das Radio | 23. März 2023 | 18:14 Uhr

Kommentare

Laden ...
Alles anzeigen
Alles anzeigen

Nachrichten

Mehr zum Thema