Autonomes Fahren Wie sollen Computer über Leben und Tod entscheiden?

Gibt es Menschenleben, die wertvoller sind als andere? Ethiker beantworten dies mit "Nein!" Doch was ist mit selbstfahrenden Autos? Eine Internetumfrage des Massachusetts Institute of Technology (MIT) konfrontiert Menschen aller Kontinente mit dem Thema. An Fallbeispielen sollen die Befragten entscheiden, wie ein selbstfahrendes Auto im Falle eines Unfalls reagieren soll. Weltweit 40 Millionen Menschen haben die - bisher nur hypothetischen - Fragen der "Moral Machine" beantwortet.

Matthew Linder und Amok Vagad bei der Präsentation eines selbstfahrenden Autos, 2017
Soll der Computer eines selbstfahrenden Autos entscheiden dürfen, wen er im Ernstfall totfährt und wen er leben lässt? Bildrechte: imago/ZUMA Press

"Moral Machine" also Moralmaschine heißt die Umfrage-Plattform und ein Fallbeispiel lautet so: Stellen sie sich vor, die Bremsen ihres selbstfahrenden Autos versagen plötzlich. Sie als Fahrer können nichts tun. Soll das Auto nun einen Kriminellen überfahren, der gerade über die Straße läuft oder das Auto mit fünf Insassen gegen eine Betonmauer und damit in den sicheren Tod lenken? Eine komische Frage, klar.

Wie würden Sie entscheiden?

Die Wissenschaftler nennen solche Fragen Entscheidungsdilemmata. Und es sind Fragen, denen wir uns in unserer sich rasant technologisch entwickelnden Welt stellen müssen. Fragen, die laut Armin Grunwald vom Karlsruher Institut für Technologie, allerdings so gar nicht gestellt werden dürften. Grunwald saß in der Ethik-Kommission, die den Bericht "Autonomes und vernetztes Fahren“ verfasst hat: "Es ist nach unserer Auffassung ethisch nicht vertretbar, dass eine solche Autosoftware Menschenleben nach unterschiedlichem Wert klassifiziert und dann vielleicht nicht Reiche umfährt oder Arme oder Ältere und keine Jüngeren. Das ist nach unserer Meinung - und da haben wir gute Kronzeugen wie zum Beispiel Immanuel Kant - nicht ethisch legitimierbar."

Regionale moralische Unterschiede

In einem Auto weist ein Mann auf ein Display 4 min
Bildrechte: MITTELDEUTSCHER RUNDFUNK

Beim Fahrzeug der Zukunft sind Kameras und Laser wichtiger als konventionelle Technik. Algorithmen verarbeiten deren Daten in Millisekunden. An der HTW Dresden werden die Ingenieure ausgebildet, die das beherrschen.

Mi 24.10.2018 14:32Uhr 04:06 min

https://www.mdr.de/wissen/videos/neue-jobs-fuer-die-autos-der-zukunft100.html

Rechte: MITTELDEUTSCHER RUNDFUNK

Video

Mal abgesehen davon, dass zumindest mit den heutigen technischen Mitteln, diese Parameter so schnell gar nicht von einem autonomen Fahrzeug erfasst werden könnten, finden sich in der Umfrage erstaunliche Unterschiede. Dies sei erklärt an einem weiteren Beispiel: Wieder versagen die Bremsen des Autos. Nun gilt es zu entscheiden: Fährt das Auto drei ältere Menschen um oder steuert es wieder die Betonwand an, in diesem Fall würde ein im Auto hinten sitzendes Kind sterben.

Die Moralmaschine erfasst hier regional verschiedene Antworten: In asiatischen Ländern würden die Menschen die drei älteren Herrschaften leben lassen, in der westlichen Welt räumen die Menschen dem Kind das moralisch höhere Überlebensrecht ein. Dazu noch einmal Armin Grunwald: "Man lernt immer etwas dabei, über die Art und Weise, wie Menschen ticken, denken, handeln. Das ist natürlich immer spannend und da gibt es in der Tat kulturelle Unterschiede. Ein bekanntes Beispiel ist die Haltung zu Pflegerobotern in Japan im Vergleich zu Deutschland. Man kann jetzt in diesem Fall vielleicht als Erklärungsmuster heranziehen: In Europa sind wir seit der griechischen Antike und dem Christentum sehr stark auf eine individualistische Ethik gegangen, während in Asien eher die kollektive Ethik herrscht. Und das führt immer mal wieder zu unterschiedlichen Haltungen."

In Asien zählt die Menge

In Asien sind mehr Menschen eben mehr wert. Hierzulande sind Kinder das höchste Gut. Auch eine Umfrage kann also die moralischen Dilemmata nicht auflösen. Eine gesellschaftliche Diskussion ist aber notwendig, damit wir wissen, worauf wir uns in Zukunft mit autonomen Fahrzeugen einlassen. Wie die dann künftig programmiert werden sollen, ist für den Ethik-Technologen Armin Grundwald völlig klar. Er sieht dei Vorlage für den Bordcomputer in der Art, wie Menschen handeln würden. Also ein pragmatsucher ansatz in einer Gefharensituation.

Da fangen sie ja auch nicht an zu überlegen und wägen sorgfältig ab, sondern sie machen einfach ganz schnell irgendwas. Wahrscheinlich hauen sie auf die Bremse und machen die Augen zu oder so etwas.

Armin Grunwald, KIT

Und so sollte dann auch der Bordcomputer reagieren, meint Grunwald. "Er muss natürlich alles tun, um den Schaden so klein wie möglich zu machen. Das heißt, voll auf die Bremse hauen, wenn man das mal so sagen darf. Und wenn dann trotzdem schreckliche Dinge passieren, dann ist das tragisch, dann ist da jemand zur falschen Zeit am falschen Ort und das ist eine Form von Tragik, die wir auch mit dem besten technischen Fortschritt nicht aus der Welt schaffen können."

Die „Moral Machine“ ist also ein interessantes Gedanken-Experiment. Nur kann es einen gesellschaftlichen Konsens überhaupt geben? Oder wird ein selbstfahrender Mercedes bald in Europa anders programmiert als für den asiatischen Markt?

Dieses Thema im Programm: MDR AKTUELL RADIO | 26. Oktober 2018 | 09:24 Uhr