Du hast deinen AdBlocker an?

Es wäre ein Traum, wenn du ihn für t3n.de deaktivierst. Wir zeigen dir gerne, wie das geht. Und natürlich erklären wir dir auch, warum uns das so wichtig ist. Digitales High-five, deine t3n-Redaktion

Kolumne

Autonome Fahrzeuge: Lieber Passanten oder einen Kinderwagen überfahren?

(Bild: Youtube / t3n)

Geht es um Roboterautos, kommt es meist zu skurrilen Diskussionen darüber, wie das Fahrzeug in Extremsituationen entscheiden soll. Für die Beurteilung von künstlicher Intelligenz am Lenkrad hilft das nicht weiter.

Am 19. März 2018 starb eine 49-jährige Frau in einem Krankenhaus in Tempe, Arizona. Sie hatte versucht, eine Straße zu überqueren und wurde dabei von einem selbstlenkenden Auto des Fahrdienstvermittlers Uber erfasst, das sich auf Testfahrt befand. Der Testfahrer hatte Polizeiberichten zufolge keine Chance einzugreifen, da die Frau nachts um 22 Uhr plötzlich aus dem Schatten auf die Fahrbahn getreten sei. Offen ist die Frage, warum das Roboterauto nicht versucht hat, zu bremsen oder auszuweichen und was dessen Sensoren vor dem Unfall wahrgenommen haben. Uber will Hergang und Ursachen genau untersuchen und hat einstweilen alle Testfahrten gestoppt. Die Frau aus Tempe ist bereits der zweite Mensch, der bei einem Unfall mit einem autonomen Fahrzeug tödlich verunglückte. Allerdings hätte beim Zusammenstoß eines Tesla mit einem Lkw im Frühjahr 2016 der Fahrer eingreifen müssen, weil Teslas Autopilot-Software ausdrücklich nicht für vollständig autonomes Fahren gedacht war.

Natürlich hat das tragische Unglück in Arizona die Debatte um künstliche Intelligenz am Steuer erneut angeheizt. Wer trägt bei solchen Unfällen die Verantwortung? Wie könnte ein Robo Law aussehen, das Verantwortlichkeiten und Strafen in solchen Fällen regelt? Welche Mindestanforderungen müssen autonome Fahrzeuge erfüllen, damit sie auf die Straße gelassen werden? Wenn diese Fragen diskutiert werden, kommt früher oder später das Trolley-Problem ins Spiel. Es handelt sich um ein philosophisches Gedankenexperiment: Eine Straßenbahn rast auf eine Gruppe von Menschen zu. Du hast die Chance, sie zu retten, indem du schnell eine Weiche umlegst, allerdings zu dem Preis, dass jemand anderes überfahren wird. Wie wirst du dich entscheiden?

Makaberes Gedankenexperiment

Das Gedankenexperiment gibt es in zahllosen Varianten bis hin zur Frage, ob ein von Terroristen entführtes Passagierflugzeug abgeschossen werden darf, bevor es in ein Hochhaus gelenkt wird, obwohl hunderte unschuldige Passagiere an Bord sitzen. Seit der Erfindung selbstlenkender Autos sind noch ein paar Varianten hinzugekommen. Soll das Roboterauto im Fall des Falles eher das Leben der Insassen riskieren oder das von Passanten? Sollte es lieber in den Gegenverkehr steuern oder einen Kinderwagen überfahren? Sollte es nach links ausweichen, wo ein alter Mann mit einem Hund entlangläuft oder nach rechts, wo gerade drei Schulkinder sind? Das MIT hat mit der Moral Machine sogar einen makaberen Test online gestellt, mit dem du selbst überprüfen kannst, wie du in bestimmten Situationen reagieren würdest.

Selbstfahrende Autos anhand dieses Trolley-Problems zu diskutieren, führt zwangsläufig aufs Glatteis und das gleich aus mehreren Gründen. Zunächst einmal fehlen dem Fahrzeug die Daten, um eine solche Entscheidung zu treffen. Das Fahrzeug „weiß“ schlicht und ergreifend nicht, ob die potenziellen Unfallopfer alt oder jung sind, männlich oder weiblich, ob es sich um einen Einkaufswagen oder einen Kinderwagen handelt, um einem Hund oder ein abgestelltes Fahrrad. Es kann nur erkennen, dass ein Hindernis vorhanden ist und versuchen, eine Kollision mit diesem Hindernis zu vermeiden, ohne dadurch mit irgendetwas anderem zu kollidieren. Mehr gibt die Technik nicht her und das dürfte sich auch bei rasanten Fortschritten in der künstlichen Intelligenz so bald nicht ändern.

Auf das Trolley-Problem gibt es keine Antwort

Doch selbst wenn dem Fahrzeug alle diese Daten zur Verfügung stünden, könnte es keine Entscheidung fällen. Es müsste allen potenziellen Opfern einen Wert zuweisen und berechnen, welches am ehesten geopfert werden kann. So etwas vermag kein Team von Programmierern befriedigend zu implementieren – schließlich gibt es keine Antwort auf diese Frage. Je nach Einzelfall antworten Menschen intuitiv ganz unterschiedlich. Viele neigen spontan dazu, sich so zu entscheiden, dass es die wenigsten Menschenleben kostet. Aber sobald die Frage anders gestellt wird, fallen die Entscheidungen ganz anders aus – etwa bei der Frage, ob ein Mensch getötet werden darf, wenn durch Entnahme seiner Organe zehn andere Menschenleben gerettet werden können.

Das Trolley-Problem dient nicht dazu, diese Fragen zu beantworten. Es soll veranschaulichen, dass sie nicht beantwortet werden können. Und wenn wir Menschen nicht in der Lage sind, diese Frage zufriedenstellend zu beantworten, sind wir auch nicht in der Lage, einen Computer so zu programmieren, dass er das kann. Selbstlenkende Fahrzeuge anhand des Trolley-Problems zu diskutieren, ist also eine gedankliche Sackgasse. Es war vorher klar, dass auch Roboterautos früher oder später tödliche Unfälle verursachen werden. Wer sie deshalb verbieten will, müsste auch Menschen das Fahren grundsätzlich verbieten. Die entscheidende Frage ist, ob autonome Fahrzeuge seltener Unfälle produzieren als menschliche Fahrer. Das müssen die Entwickler solcher Fahrzeuge allerdings erst noch beweisen. Dafür, dass nur ein winziger Bruchteil des Straßenverkehrs aus Testfahrten von Roboterautos besteht, kamen die ersten Todesfälle allerdings viel zu früh.

Wer ist schuld, wenn das Roboterauto einen Unfall baut – und wer kommt für den Schaden auf? (Screenshot: Youtube/t3n.de)

 

Bitte beachte unsere Community-Richtlinien

Eine Reaktion
Gecko

Zitat Isaac Asimov aus den 40ern:
*** Zitat Anfang***
1. Ein Roboter darf einem menschlichen Wesen keinen Schaden zufügen oder durch Untätigkeit zulassen, dass einem menschlichen Wesen Schaden zugefügt wird.
2. Ein Roboter muss dem ihm von einem menschlichen Wesen gegebenen Befehlen gehorchen, es sei denn, dies würde das Erste Robotergesetz verletzen.
3. Ein Roboter muss seine Existenz schützen, es sei denn, dies würde das Erste oder Zweite Robotergesetz verletzen.
*** Zitat Ende***

Aber die Umsetzung!?

Viele Grüße

Du musst angemeldet sein, um einen Kommentar schreiben zu können.

Jetzt anmelden

Finde einen Job, den du liebst