Symbolbild für künstliche Intelligenz
Künstliche Intelligenz soll selbständig dazulernen und Entscheidungen treffen können. Bildrechte: MEDIEN360G

Künstliche Intelligenz KI-Experte: Technik noch zu jung für Gesetze

Es ist der Beginn einer neuen Ära. Zumindest sagen uns das all die großen Technologie-Konzerne, wenn sie über Künstliche Intelligenz (KI) reden. Und selbst ihnen scheint sie wohl etwas unheimlich zu sein. Denn sie rufen nach Regeln für den Umgang mit KI. Microsofts Deutschland-Chefin hat das vor Kurzem bei MDR AKTUELL getan. Brauchen wir KI-Gesetze?

von Marcel Roth, MDR AKTUELL

Symbolbild für künstliche Intelligenz
Künstliche Intelligenz soll selbständig dazulernen und Entscheidungen treffen können. Bildrechte: MEDIEN360G

Es ist kompliziert mit der Künstlichen Intelligenz. Und mit der Frage, ob sie geregelt werden muss. Während auf EU-Ebene an Ethikrichtlinien dafür gearbeitet wird und im Bundestag eine Enquetekommission dazu tagt, sagt die Deutsche Telekom zum Beispiel: Bloß keine Gesetze! Und auch Christoph Lütge von der TU München sieht die Sache differenziert. Derzeit sei es zu früh für detaillierte Regeln.

Die Technologie ist noch nicht soweit, dass man sagen kann, wie sich eine Regulierung auswirken wird. Im Moment brauchen wir Ethikrichtlinien auf einer abstrakteren Ebene.

Christoph Lütge, Professor für Wirtschaftsethik an der Technischen Universität München

Und diese Ethikrichtlinien müssten zwischen Staat, Unternehmen und Zivilgesellschaft diskutiert werden. Dazu müsse allerdings mehr in Bildung und digitale Infrastruktur investiert werden, sagt Lütge, der in München gerade ein Institut für Ethik in der Künstlichen Intelligenz aufbaut. Und er sagt auch: Derzeit sollte man KI in keinem Bereich grundsätzlich verbieten.

Ethische Regeln als Grundlage

Mit der Gesichtserkennung beispielsweise baut China ein Social-Credit-System auf, das hierzulande niemand will. Aber mit derselben Technik entsperren Menschen überall auf der Welt ihre Smartphones. Die Technologie bräuchte klare Regeln. Und dabei könne man sich an klassischen ethischen Regeln orientieren, sagt Lütge. Zum Beispiel an der Regel: Füge niemandem Schaden zu.

Aber Lütge schweben auch spezifische Prinzipien für künstliche Intelligenz vor, zum Beispiel das "Prinzip der Erklärbarkeit". Und das besage: Man muss nachvollziehen können, anhand welcher Kriterien eine KI Entscheidungen trifft. Denn in vielen Fällen ist Künstliche Intelligenz eine Art Blackbox, in die niemand hineinschauen kann. So wissen oft selbst die Programmierer nicht, wie die Maschine zu einer bestimmten Entscheidung gekommen ist.

Eine Art TÜV für autonomes Fahren

Deshalb reiche es nicht aus, allein den Programmcode offenzulegen, sagt Lütge. Und auch die Forderung, der Mensch müsse immer als letzter entscheiden, ist für Lütge zu einfach. "In vielen Bereichen, zum Beispiel dem autonomen Fahren, müssen Entscheidungen in Bruchteilen von Sekunden getroffen werden. Da können wir nicht auf die menschliche Entscheidung warten. Insofern kann man das auch nicht zum allgemeingültigen Prinzip erheben."

Lütge war Mitglied der Ethikkommission zum autonomen Fahren beim Bundesverkehrsministerium, die im vergangenen Jahr 20 KI-Regeln aufgestellt hat. Er glaubt, es wird eine Art TÜV für autonomes Fahren geben. Aber auch dort lasse sich nicht jedes mögliche Resultat überprüfen. Lütge wünscht sich deshalb Ingenieure und Informatiker, die bei ihrem Tun den Menschen in den Mittelpunkt stellen. Dabei sollten sie sich von anderen Disziplinen unterstützen lassen – von Geistes- und Sozialwissenschaftlern. Regeln für neue Technologien bringen also mehr Menschen zum Nachdenken. Die Digitalisierung, die Philosophen schafft.

Dieses Thema im Programm: MDR AKTUELL RADIO | 05. Mai 2019 | 05:00 Uhr

Zuletzt aktualisiert: 05. Mai 2019, 05:00 Uhr

Die Kommentierungsdauer ist abgelaufen. Der Beitrag kann deshalb nicht mehr kommentiert werden.

2 Kommentare

05.05.2019 11:37 part 2

In die meiste moderne Militärtechnik ist heute schon KI verbaut, sie wird nur nocht angewendet, da der Ernstfall bisher nicht eingetreten ist, es wäre aber möglich sie sofort einzusetzen. Wer kontrolliert dagegen die Gesetzgebung von Schurkenstaaten, die sich seit ihrer Gründung fast jedes Jahr in einem Kriegseinsatz befanden?
Die Ziviltechnik ist zumeist immer ein Ableger der Militärtechnik und genau dort sollte zuerst angesetzt werden in Gesetzen und ethischen Regeln an die sich jeder Staat halten sollte. Bei der jetzt vorherrschenden Gesellschaftsform auf der Welt sehe ich aber schwarz dabei.

05.05.2019 09:00 winfried 1

Es gibt grundsätzlich 2 Möglichkeiten sich mit einem tatsächlichen oder vermeintlichen Problem zu beschäftigen.
1. ... Man klärt und regelt zu Beginn (= Aktion), und bessert ggf. nach
oder
2. ... man "hechelt" den Ereignissen hinterher (= Reaktion).

Meine Meinung dazu ...
... 1. ist für "Fleißige"
... 2. ist für "Faule".