Du hast deinen AdBlocker an?

Es wäre ein Traum, wenn du ihn für t3n.de deaktivierst. Wir zeigen dir gerne, wie das geht. Und natürlich erklären wir dir auch, warum uns das so wichtig ist. Digitales High-five, deine t3n-Redaktion

News

Moralisches Dilemma von autonomen Autos – so denkt die Mehrheit

Test mit einem autonomen Auto im Hochhausviertel La Défense nahe Paris. (Foto: Von Sebastien Durand/Shutterstock)

Ebenso wie Fahrer können auch autonome Autos vor Dilemmasituationen kommen, wenn ein Unfall unausweichlich ist. Wie sollen sie programmiert werden? Forscher haben eine riesige Umfrage ausgewertet.

Auch autonome Fahrzeuge können in ein Entscheidungsdilemma kommen. Wie sollen sie vor einem Unfall lenken, wenn es auf jeden Fall zu einem Schaden kommt? Antworten haben US-Forscher mit einer weltweiten Umfrage gefunden. Demnach würde eine Mehrheit eher Kinder als Ältere verschonen sowie eher Menschen als Tieren ausweichen. Das Ergebnis weise allerdings größere kulturelle Unterschiede auf, schreiben die Forscher um Iyad Rahwan vom Massachusetts Institute of Technology in Cambridge im Journal Nature.

Die Internet-Umfrage mit dem Titel „Moral Machine“ sorgte weltweit für Schlagzeilen. Die große Beteiligung machte es den Forschern möglich, fast 40 Millionen Entscheidungen in Dilemma-Situationen zu analysieren. Allerdings war die Befragung nicht repräsentativ; so waren etwa junge Männer überproportional vertreten.

Asiatische Länder bevorzugen nicht die Jüngeren

Rahwan und Kollegen begründen ihre Befragung mit der Bedeutung für die Akzeptanz autonomer Fahrzeuge in der Bevölkerung: „Selbst wenn sich die Ethiker einig wären, wie autonome Fahrzeuge moralische Dilemmata lösen sollten, wäre ihre Arbeit nutzlos, wenn die Bürger ihrer Lösung nicht zustimmen würden.“

In einem konkreten Fallbeispiel versagten die Bremsen des Fahrzeugs. Die Befragten mussten sich entscheiden, ob drei ältere Menschen, die bei Rot über die Straße gehen, überfahren werden sollen oder ob der Wagen gegen eine Betonwand gelenkt werden soll. Dies hätte den Tod der Insassen, darunter ein Junge, zur Folge. Insgesamt mussten die Teilnehmer neun Entscheidungen in unterschiedlichen Situationen treffen, darunter: Fahrzeuginsassen oder Fußgänger, Männer oder Frauen, Jüngere oder Ältere, Sportliche oder Unsportliche, Menschen mit höherem oder niedrigerem sozialen Status.

Bei der Auswertung nach Ländern ergaben sich drei große Gruppen: westliches, östliches und südliches Cluster. Die Entscheidungen in vielen asiatischen Ländern (östliches Cluster) weichen von den anderen Gruppen dadurch ab, dass sie nicht die jüngeren Menschen verschonen würden. Stattdessen gilt in diesen Ländern der Respekt vor den älteren Mitgliedern der Gemeinschaft. Das südliche Cluster (Mittel- und Südamerika) unterscheidet sich vom westlichen Cluster (Europa, Nordamerika) unter anderem dadurch, dass die Mittel- und Südamerikaner sehr viel öfter eingreifen würden, als auf das Lenken zu verzichten.

Regeln der deutschen Ethik-Kommission weichen von Umfrageergebnissen ab

Die Ergebnisse der „Moral Machine“ weichen teilweise von den Regeln ab, die die deutsche Ethik-Kommission in ihrem Bericht „Autonomes und vernetztes Fahren“ im Juni 2017 niedergelegt hat. So heißt es in Regel 9: „Bei unausweichlichen Unfallsituationen ist jede Qualifizierung nach persönlichen Merkmalen (Alter, Geschlecht, körperliche oder geistige Konstitution) strikt untersagt.“ In derselben Regel steht drei Sätze weiter: „Die an der Erzeugung von Mobilitätsrisiken Beteiligten dürfen Unbeteiligte nicht opfern.“ Den Ergebnissen der Studie zufolge hat ein Großteil der Befragten weltweit andere moralische Vorstellungen.

Grundsätzlich finde sie das Ziel der Autoren richtig, eine Debatte über die „ethische Programmierung“ von selbstfahrenden Autos anzustoßen, bevor diese auf den Straßen fahren, kommentiert Silja Vöneky von der Universität Freiburg die Studie. „Wir sollten aber nicht glauben, dass wir alle Normen und Prinzipien neu erfinden oder ändern müssen, nur weil es um eine neue Technik geht.“ Dilemmasituationen habe es schon vorher gegeben und mit den Menschenrechten existierten bereits rechtlich bindende ethische Prinzipien.

Armin Grunwald vom Karlsruher Institut für Technologie warnt sogar vor den Schlussfolgerungen der Studie: „Weder aus Spielen noch aus Umfragen kann etwas über die ethische Zulässigkeit von Normen gelernt werden. Ansonsten könnte nach jedem schweren Verbrechen eine Umfrage gemacht werden, die mit ziemlicher Sicherheit für die Einführung der Todesstrafe ausgehen würde.“ Grunwald gehörte der Ethik-Kommission an, die den Bericht „Autonomes und vernetztes Fahren“ verfasst hat. dpa

Zum Weiterlesen:

ADAC: So lange müssen wir noch auf autonomes Fahren warten

Bitte beachte unsere Community-Richtlinien

2 Reaktionen
Martin

Das ist und bleibt eine sehr schwierige Diskussion. Unabhängig von solchen Situationen ist auch noch die Haftungsfrage. Wer ist dann für den Tod der 3 älteren Menschen verantwortlich? Das Auto selbst, der Fahrer, der Hersteller oder sogar die Politik?

Ich bin ein absoluter Gegner vom freien autonomen Fahren, weil damit und eben durch solche "Einstellungen" Menschen bewertet werden, wieso sollte eine ältere Person weniger Wert sein als ein Kind? Natürlich hat das Kind noch sein Leben vor sich und die ältere Person sein Leben gelebt, jedoch ist so eine Entscheidung im höchsten Maße heikel.

Autonomes Fahren funktioniert in meinen Augen wenn man die Autos, die Radfahrer und die Fußgänger strikt voneinander trennt. Für Autos gibt es Schienensysteme, Kreuzungen sind anders konzipiert etc. Das Auto und die Infrastruktur müssen absolut aufeinander abgestimmt sein. Autonomes Fahren mit der heutigen Infrastruktur (Ampelkreuzung, Fußgänger etc.) ist in meinen Augen nicht möglich.

Antworten
Titus von Unhold

Wir nehmen einen Zufallsgenerator und fertig. Viel mehr geben die Fahrkünste des Durchschnitts (der nicht Vettel oder Röhrl heißt) auch nicht her.

Antworten

Melde dich mit deinem t3n Account an oder fülle die unteren Felder aus.