Interview Brauchen wir eine Ethik für Roboter?

Viele der heute erhältlichen Roboter verrichten eher simple Tätigkeiten, die vollständig vorprogrammiert sind und mit denen sie Menschen assistieren. Dagegen sollen Maschinen mit künstlicher Intelligenz im engeren Sinne selbst lernen und eigenständig Entscheidungen treffen. Mit solchen Maschinen befasst sich die Technikphilosophin Janina Loh von der Universität Wien. Wir wollten von ihr wissen, in welchen Forschungsbereichen mit solcher künstlichen Intelligenz experimentiert wird.

Janina Loh: Es gibt natürlich Bereiche, in denen künstliche Intelligenz in so einem starken Sinne auch entwickelt wird. Das ist vor allen Dingen auch der Bereich der evolutionären Robotik, wo Roboter gebaut werden nach dem Maßstab menschlicher Kinder. Also, die so entwickelt werden, so gebaut und designt werden, dass sie menschlichen Kindern in ihrer Entwicklung nacheifern können.

Und die Robotikerinnen und Robotiker, die da tätig sind, orientieren sich in ihrer Arbeit auch an der Entwicklungspsychologie und versuchen, Roboter in einer Weise zu konstruieren, dass sie – ähnlich wie menschliche Kinder – sich in ihrer Umgebung zurechtfinden und durch Lernfähigkeit, durch Trial and Error, also dadurch, dass sie versuchen und imitieren und auch Fehler machen können, sich selbst Prinzipien anzueignen, die ihnen dann helfen, in zukünftigen Situationen besser zu handeln oder besser den Herausforderungen gerecht werden zu können.

MDR KULTUR: Was heißt besser? Effektiver? Oder auch "gut" im Sinne einer Abgrenzung von etwas, das schlecht für Menschen oder für die Umwelt ist? Moralisch oder ethisch verwerflich?

Ich glaube, in den meisten Fällen geht es bei diesem System noch nicht um ein "gut", das in einem moralisch signifikanten Sinne "gut" bedeutet. Also beispielsweise der Roboter ICUB, das ist so ein Roboter, der einem zwei- bis vierjährigen Kind nachempfunden ist. Der bekommt von einem Menschen vorgeführt, wie er Müsli in eine Schüssel füllen kann und kann dann aufgrund der Tatsache, dass er sich das angeschaut und mitgemacht hat mit dem Menschen, diesen Prozess in einer folgenden Situation nachahmen. Und das ist nicht vorher in einem harten Top-Down-Sinne in ihn implementiert oder programmiert worden.

Man würde da vielleicht sagen, dass die Tätigkeit des Füllens von Müsli in eine Schüssel noch nicht moralisch interessant ist. Aber genau dieser Roboter ICUB hat beispielsweise auch schon das Bogenschießen gelernt. Und das ist natürlich wiederum moralisch interessant. Warum sollte man einem Roboter, der einem zwei- bis vierjährigen Kind nachempfunden ist, das Bogenschießen beibringen?

Klingt auch ein bisschen gefährlich. Das könnte ethische Fragen aufwerfen, denn da sind wir schon beim Thema Gewalt.

eine menschliche und eine technische Hand
Werden Mensch und Roboter künftig Hand in Hand arbeiten? Bildrechte: IMAGO Panthermedia

Ja, natürlich. Da muss natürlich vorher irgendwie sichergestellt werden, dass ein ICUB in der Lage ist, ein Ziel angemessen auszuwählen. Also dass er beispielsweise, wenn eine Zielscheibe vor ihm steht und daneben steht ein Mensch, dass er dann genau weiß, wohin er zielen soll, nämlich auf die Zielscheibe und nicht auf den Menschen. Aber natürlich sind das schon in ganz klarer Weise ethische Prinzipien, die dem Roboter da eingegeben werden.

Irgendwann werden wir so weit sein, dass Roboter tatsächlich eine eigene Ethik, eine eigene Moral haben müssen, um in schwierigen, vielleicht schwer planbaren Situationen die richtigen Entscheidungen zu treffen. Ist das überhaupt möglich?

Ich glaube, es ist erstmal in dem Sinne nicht denkbar. Zumindest nicht, solange Roboter immer noch erstmal von Menschen konstruiert werden. Und dadurch die menschlichen Werte, also die Werte derjenigen, die sie konstruiert und designt haben, in sie eingehen. Wie soll eine Maschine etwas aus dem Nichts heraus erschaffen, was nicht schon in ihren Grundstrukturen durch ihre Kreateurinnen und Kreateure in sie angelegt worden ist?

Aber der Punkt ist, glaube ich, bei der Roboter-Ethik, dass sie eben jetzt gerade schon, bei all diesen kleinen, schwachen künstlichen Intelligenzen, dass sie da schon eine Rolle spielt und nicht erst in einer weit entfernten Zukunft. Sondern direkt jetzt und heute und bei all den technologischen Modellen, die wir jetzt schon haben. Also auch ein Staubsaugerroboter hat natürlich ethisch signifikante Werte implementiert.

Das heißt, auch beim Staubsaugerroboter müssen wir jetzt schon von einer Roboter-Ethik sprechen und nicht erst von einem Staubsaugerroboter, der in irgendeinem starken Sinne lernfähig ist und selber darüber entscheiden kann, wie und ob er überhaupt die Wohnung saugt.

Wofür sollte ein Staubsaugerroboter eine Ethik haben?

Die Ethik fängt schon beim Design an. Dass das ein Roboter ist, der Vertrauen erwecken soll, also Strukturen hat, die auf uns vertraut wirken. Und das sind meistens anthropomorphe, also menschliche Strukturen. Oder zoomorphe, also tierische Strukturen. Das sind natürlich ethische Entscheidungen, die wir als Designerinnen und Designer in den Roboter hineintragen.

Aber dann natürlich auch, was den Aufgabenbereich anbelangt. Der Roboter sollte ja zumindest nicht über größere Haustiere drüber fahren, also über den Schwanz der Katze beispielsweise. Und er sollte auch vermutlich nicht die teure Chinavase über den Haufen fahren.

Oder einen seltenen Käfer aufsaugen!

Da kommen wir zum Beispiel zu dem Staubsaugerroboter-Modell von Oliver Bendel. Das ist ein Roboter-Ethiker in der Schweiz, der einen Prototypen für einen Staubsaugerroboter entworfen hat namens "Ladybird". Und Ladybird soll in der Lage sein, immer dann, wenn er marienkäferähnliche Strukturen erkennt, anzuhalten. Und da merken wir halt schon, dass es sehr unterschiedliche ethische Kriterien sein können, nach denen ein solcher Staubsaugerroboter programmiert sein soll.

Die meisten würden sagen: Na ja, auf Spinnen kann ich gut verzichten. Im Gegenteil wäre ich da sehr froh, wenn der Roboter sie einsaugt. Und da merken Sie schon, die Entscheidung dafür, dass der Staubsaugroboter auf den Schwanz der Hauskatze aufpassen soll, aber bitteschön Spinnen geflissentlich übersehen soll, sogar beseitigen soll, das ist eine ethische Entscheidung.

Das Gespräch führte MDR KULTUR-Moderator Vladimir Balzer.

Buchtipp Janina Loh: "Roboterethik: Eine Einführung"
Suhrkamp Verlag, 2019
241 Seiten, Taschenbuch
ISBN: 978-3-518-29877-0
18,00 Euro

Das könnte Sie auch interessieren

Dieses Thema im Programm: MDR KULTUR - Das Radio | 28. Januar 2020 | 08:40 Uhr

Zuletzt aktualisiert: 28. Januar 2020, 11:36 Uhr

Abonnieren