Staubsauger-Anschlag und Bot-Angriffe Experten warnen vor Missbrauch künstlicher Intelligenz

25. Februar 2018, 15:00 Uhr

Ein Kehr-Roboter macht im Finanzministerium seinen Job, erkennt den Minister und explodiert. Ein Szenario, das Sicherheitsexperten schon in wenigen Jahren für möglich halten. In einer Studie warnen sie vor solchen und anderen Gefahren durch künstliche Intelligenz.

Sicherheitsexperten mehrerer britischer und US-amerikanischer Institute warnen vor der wachsenden Gefahr eines Missbrauchs künstlicher Intelligenz durch Autokraten, Kriminelle und Terroristen. In einer 100 Seiten umfassenden Analyse zeichnen die Autoren Bedrohungsszenarien für die Bereiche der digitalen, der technischen und der politischen Sicherheit, die nach Ansicht der Wissenschaftler in fünf bis zehn Jahren Realität sein könnten.

Wachsende Bedrohung durch technische Systeme

Nach Ansicht der Sicherheitsexperten droht die Gefahr dabei nicht allein aus dem Internet. Eine wachsende Bedrohung bilden demnach technische Systeme, die zunehmend unseren Alltag bestimmen: "Wir erwarten auch neue Angriffe, die cyber-physische Systeme unterlaufen (z.B. Unfälle selbstfahrender Fahrzeuge hervorrufen) oder dafür sorgen, dass technische Systeme nicht mehr aus der Ferne kontrolliert werden können." Bereits heute besteht nach Meinung der Autoren die Gefahr, dass Drohnen und Roboter als Träger von Sprengladungen oder als Boten für Lösegeldzahlungen bei Geiselnahmen genutzt werden könnten.

Attentat mit Staubsauger

In einem Szenario beschreiben die Verfasser der Studie, wie in Zukunft ein Politiker-Attentat mit einem Staubsauger aussehen könnte: Ein manipulierter Kehr-Roboter (sweep bot) wird im Finanzministerium in Berlin eingeschleust. Er macht zunächst seinen ganz normalen Job und führt alle üblichen Reinigungsprozesse aus. Als er dann aber per Gesichtserkennungstechnik das Gesicht des Finanzministers identifiziert, beendet er seine Arbeit, fährt direkt auf den Politiker zu und explodiert. Der Minister wird getötet und Mitarbeiter von ihm, die sich in der Nähe aufhalten, verwundet.

Roboter-Hunde: Was künstliche Intelligenz schon alles kann

Intelligente "Phishing"-Attacken

Auch im Bereich der digitalen Sicherheit werden die Herausforderungen nach Ansicht der Studien-Autoren in den kommenden fünf bis zehn Jahren deutlich anwachsen. So könnte es durch die kriminelle Anwendung künstlicher Intelligenz künftig deutlich schwerer werden, gefährliche "Phishing"-Angriffe zu erkennen, über die sensible Nutzer-Informationen wie etwa Kontozugangsdaten ausspioniert werden.

Spionage, Propaganda, Manipulation

Bereits heute könnten laut der Studie durch automatisierte Datensammlungen Bevölkerungen ausspioniert, durch gezielte Propaganda verführt und durch Manipulationen von Informationen etwa durch gefälschte Bilder und Videos in bis dato unbekanntem Ausmaß beeinflusst werden.

Von den politischen Entscheidungsträgern und Unternehmen fordern die Autoren der Studie deshalb Roboter-Software absolut sicher zu machen und weitere Gesetze zur Steuerung der Erforschung Künstlicher Intelligenz zu erwägen.

Dieses Thema im Programm: MDR AKTUELL Radio | 08. Januar 2018 | 13:50 Uhr