Sie sind hier

Die Moral selbstfahrender Autos

In wenigen Jahren werden selbstfahrende Autos unsere Mobilität wesentlich verändern. Während dadurch viele neue Möglichkeiten gewonnen und aller Einschätzung nach auch viele Unfälle vermieden werden können, tauchen bei der Programmierung selbstfahrender Autos auch sehr interessante moralische Probleme auf.

Wenn mir das Glück vergönnt sein sollte, bei guter Gesundheit 90 Jahre alt zu werden, dann lässt sich schon heute mit Sicherheit sagen, dass ich zu diesem Zeitpunkt mein Auto nicht mehr selbst werde lenken müssen. Selbstfahrende Autos werden dann nämlich normal sein. Sie werden meine Mobilität im hohen Alter sehr stark erleichtern und Fahrten zum Einkaufen, zum Arzt oder zu Freunden sehr viel einfacher – und vor allem sicherer – machen, als wenn ich noch selbst lenken müsste.

Für jeden normalen Autofahrer ist die Vorstellung äußerst gewöhnungsbedürftig, sich nur mehr in ein Auto zu setzen, das gewünschte Ziel einzugeben und sich dann beispielsweise mit Zeitunglesen die Zeit bis zur Ankunft zu vertreiben, ohne je das Lenkrad in die Hand zu nehmen. Nach allen Berechnungen von Experten wird der Verzicht auf das eigene Lenken aber Unfälle vermeiden – im Gegensatz zu heute, wo Fahrfehler sehr häufig die Ursache von Unfällen sind.

Was aber, wenn das selbstfahrende Auto – trotz modernster Computer- und Sensorentechnik zur Vermeidung von Unfällen – plötzlich in eine Situation kommt, in der ein Unfall unvermeidbar ist? Noch präziser gefragt, was soll das Auto tun, wenn es entweder durch ein Manöver nach rechts eine alte Oma mit ihrem Enkelkind oder durch ein Manöver nach links einen Mann mittleren Alters überfahren müsste, weil es keine andere Alternative gibt? Den Autoinsassen um seine Meinung zu fragen, ist nicht möglich, weil dafür keine Zeit ist.

Eine solche Situation wirft äußerst interessante und höchst relevante moralische Fragen auf. Im Kern geht es um die Frage, wie man Leben gegeneinander abwägt. Und die Softwareprogrammierer für selbstfahrende Autos werden Algorithmen programmieren müssen, um solche Entscheidungen zu treffen. Dabei spielt ein moralphilosophisches Konzept aus dem 18. Jahrhundert eine bedeutende Rolle, über das ich in meinen Kursen zur Moral in der Wirtschaft häufig unterrichte. Jeremy Bentham (1748–1832) gilt als Begründer des Handlungsutilitarismus. Bentham war nicht nur Philosoph, sondern auch für Rechts- und Sozialreformen verantwortlich. Dabei suchte er nach einer Regel, die das menschliche Handeln und jede Art von Reform leiten sollte. Diese Regel fasste er zusammen in dem Grundsatz: Die Handlung, die das größte Glück für die größte Zahl hervorbringt, ist die Beste. Dieser Grundsatz bedeutete, dass nicht nur das Glück einiger privilegierter Menschen – in seiner Zeit etwa Menschen aus dem Adelsstand – bedeutsam war, sondern alle von einer Handlung betroffenen Menschen berücksichtigt werden sollten. Es bedeutete aber auch, dass unter Umständen einige Menschen Nachteile in Kauf nehmen mussten, wenn das das größte Glück der größten Zahl erst ermöglichen würde.

Das bringt uns zurück zur Moral selbstfahrender Autos. Eine utilitaristische Perspektive wird von den meisten Menschen als vernünftig und wünschenswert bezeichnet, wenn ein selbstfahrendes Auto zwischen zwei Optionen abwägen muss, die jeweils Menschenleben fordern. Eine vor einigen Monaten im Fachmagazin „Science“ veröffentlichte Studie von Autoren aus Frankreich und den USA belegt durch Befragungen von über 2000 Personen, dass eine Mehrheit einen Algorithmus für sinnvoll hält, der das kleinere Übel bei der Anzahl an Todesopfern wählt (unter der Voraussetzung, dass ein Unfall mit Todesfolge nicht vermieden werden kann). Im Eingangsbeispiel würde das bedeuten, dass die Mehrheit sich dafür ausspricht, dass das selbstfahrende Auto den Mann mittleren Alters überfährt und nicht die Großmutter mit ihrem Enkelkind, weil dadurch zwei Menschen gerettet werden können. Die Entscheidung wird noch klarer, wenn die Alternative wäre, einen Mann mittleren Alters zu überfahren oder in eine Gruppe von Kindergartenkindern zu fahren, die auf einem Ausflug sind. Je mehr Menschenleben gerettet werden können, umso eher ist man bereit, eine kleinere Opferzahl in Kauf zu nehmen. Die Befragten in der „Science“-Studie folgten aber nicht immer diesem einfachen utilitaristischen Ansatz. Die Problematik wird nämlich in den folgenden beiden Situationen noch komplizierter. Was, wenn der Mann mittleren Alters ein Verwandter ist, vielleicht gar der eigene Vater? Würde man den auch opfern, um eine Großmutter und ihr Enkelkind zu retten? Würde man es tun, wenn man eine Kindergartengruppe damit retten würde?

Oder noch schlimmer: Was sollte der Algorithmus tun, wenn die einzige Chance zur Rettung anderer Menschen (der Großmutter mit Enkelkind oder der Kindergartenkinder) darin besteht, die Insassen des Autos zu opfern, indem das Auto ein Ausweichmanöver macht, dabei aber über eine Klippe in eine Schlucht stürzt? Unter welchen Bedingungen sollte also der Algorithmus die Menschen im Auto opfern?

Und hier kommt die spannendste Einsicht aus der „Science“-Studie. Zwar stimmt die Mehrzahl der Befragten zu, dass eine utilitaristische Perspektive beim Abwägen von Leben sinnvoll ist – wenngleich die Zustimmung zur „Selbstopferung“ etwas geringer ist, als wenn ein anderer Mensch das Opfer wäre, um andere zu retten –, die meisten Menschen möchten aber kein solches Auto kaufen, das sie selbst opfern würde. Wenn als Alternative ein Modell mit einer Programmierung verfügbar wäre, die die Autoinsassen unter allen Umständen rettet, dann würde die Mehrheit ein solches Modell gegenüber jenem bevorzugen, das streng utilitaristisch Menschenleben abwägt. Falls sich solche Modelle aufgrund ihrer höheren Nachfrage am Markt durchsetzen, wird es in Summe aber mehr Unfallopfer als nötig geben. Das hieße dann aber auch, dass selbstfahrende Autos weniger Moral hätten, als technisch möglich wäre.

01.07.2017

Wie hat Ihnen dieser Artikel gefallen?: 
gar nicht gut
sehr gut

Neuen Kommentar schreiben

To prevent automated spam submissions leave this field empty.

Leserbrief

Wir wollen Ihren Standpunkt wissen. Diskutieren Sie mit, schreiben Sie uns.

Unsere Leser finden diesen Artikel

gar nicht gut
0
sehr gut

Matthias Sutter

(1968 in Hard) arbeitet auf dem Gebiet der experimentellen Wirtschaftsforschung und Verhaltensökonomik und lehrt an den Universitäten Köln und Innsbruck. Der Harder war unter anderem zwei Jahre Professor am Max-Planck-Institut für Ökonomik in Jena und von 2013 bis 2014 Professor of Applied Economics am European University Institute (EUI) in Florenz. Bekannt wurde er durch seinen Bestseller „Die Ent­deckung der Geduld“.

(Foto: © Lisa Beller)

24.07.2017
16° / 18°
Mo, 24.07.2017 Vorarlberg
  • 25.07.2017
    Di
    11°
    17°
  • 26.07.2017
    Mi
    12°
    18°
  • 27.07.2017
    Do
    15°
    23°
  • 28.07.2017
    Fr
    13°
    24°
  • 29.07.2017
    Sa
    13°
    26°
Hier alle Ausgaben als E-Paper online lesen.