Du hast deinen AdBlocker an?

Es wäre ein Traum, wenn du ihn für t3n.de deaktivierst. Wir zeigen dir gerne, wie das geht. Und natürlich erklären wir dir auch, warum uns das so wichtig ist. Digitales High-five, deine t3n-Redaktion

Kommentar

Ein Plädoyer dafür, Menschenleben in Computerhand zu legen

    Ein Plädoyer dafür, Menschenleben in Computerhand zu legen

(Foto: Shutterstock/Taina Sohlman)

Nach dem tödlichen Autopiloten-Unfall mit einem Tesla ist eine Diskussion über autonomes Fahren entbrannt. Dabei sollten wir Technologien noch viel mehr Menschenleben anvertrauen.

Als der 40-jährige Joshua Brown am Samstag den 07. Mai mit Tessy, wie der US-Amerikaner seinen geliebten Tesla nannte, auf dem Highway US 27 fuhr, wusste er noch nicht, dass sein Auto ihn in wenigen Sekunden töten würde. Dann scherte ein Truck mit Anhänger vor ihm aus und bog aus der entgegenkommenden Fahrtrichtung kommend links vor ihm ab.

„Die Vorstellung, dass eine Maschine einen Menschen tötet macht uns Angst.“

Schnell meldeten sich in der New York Times Experten zu Wort, die von einem „Weckruf“ für die Industrie sprachen und sogar forderten, die Technologie grundsätzlich zu „überdenken.“ Die Vorstellung, dass eine Maschine einen Menschen tötet, macht uns Angst, rührt an den Grundpfeilern der Menschlichkeit. Drohnen, die aus der Luft Menschen töten, ein Spezialroboter, der statt Bomben zu entschärfen einen Geiselnehmer sprengt – all das sind ohne zu übertreiben Horrorszenarien. Das gilt auch für den Unfall von Joshua Brown mit seinem Tesla.

Aber von dieser Angst darf unser Denken und Handeln nicht bestimmt werden, denn es ist dringend notwendig, Menschenleben in die Hand der Technologie zu legen. Je mehr, desto besser und je schneller, desto besser.

Auto tötet Mensch: Der Tesla-Unfall

(Screenshot: New York Times)
Joshua Brown (rechts) vor seinem Tesla „Tessy“, einige Zeit vor dem Unfall. (Screenshot: New York Times)

Was tatsächlich passierte, wird vielleicht die Untersuchung der Verkehrssicherheitsbehörde ergeben. Bisher ist nur bekannt, dass weder Fahrer noch das „Autopilot“ genannte Fahrassistenz-System auf die Bremse traten, als der Anhänger vor der Windschutzscheibe Tessys auftauchte. Es wird spekuliert, dass sich der weiße Anhänger farblich vom weißen Himmel zu wenig abgehoben hat.

(Screenshot: New York Times)
Der Tesla-Unfall von Joshua Brown. (Screenshot: New York Times)

Der Name „Autopilot“ ist unglücklich gewählt, jedenfalls für ein System, dass diese Funktion nicht ganz erfüllt. Jeder von uns verbindet mit bestimmten Begriffen in Gedanken unweigerlich ein Bild und ruft, ohne sich dessen bewusst zu sein, dazugehörige Erfahrungen ab. Kognitionspsychologisch bezeichnet die Wissenschaft diesen unbewussten, nicht rational ablaufenden Prozess als „Framing“.

Wenn ein Hersteller sein System „Autopilot“ nennt, ruft den passenden Frame dazu auf: der Autopilot in der Luftfahrt, der selbstständig lenkt. Es wurden also – ob gewollt oder nicht – Erwartungen geweckt, die das System nicht erfüllen kann. Kritiker fordern daher zurecht mehr Aufklärung darüber, dass das System eben kein Autopilot ist, bei dem sich der Fahrer zurücklehnen kann.

Technisch betrachtet hat das System Joshua Brown also getötet. Das Fahrzeug ist in Folge der Steuerung durch Teslas Fahrassistenz-System unter einen Anhänger gesteuert worden. Ein technischer Fehler: Das System ist darauf ausgelegt, Menschenleben zu bewahren.

Maschine tötet Mensch: Drohnen oder Sprengroboter bei Geiselnahmen

(Foto: Wikimedia Commons, Master Sgt. Steve Horton US Airforce, Public Domain)
Drohnenpiloten beim Einsatz. (Foto: Wikimedia Commons, Master Sgt. Steve Horton US Airforce, Public Domain)

Als der Science-Fiction-Autor Isaac Asimov seine Robotergesetze entwarf, versuchte er einer fiktiven künstlichen Intelligenz Regeln mitzugeben. Höchste Priorität für die künstliche Intelligenz in den Romanen von Asimov hat daher die Achtung von menschlichem Leben. Wir hingegen entwerfen Technologie, die ganz absichtlich menschliches Leben missachten soll. Drohnen, die auf der Jagd nach Menschen aus der Ferne sind. Noch muss ein Mensch über den Einsatz tödlicher Gewalt entscheiden. Aber wie lange noch?

„Eine Armee gilt als gut, wenn sie tötet ohne ihre Soldaten zu exponieren.“

Ohne sich selbst zu exponieren, töten Drohnenpiloten. Ethisch wird das von manchen als Fortschritt dargestellt, wie der französische Philosophen Grégoire Chamayou feststellt, der sich mit der Moral des Drohnenkriegs beschäftig.

„Die neue militärisch-moralische Interpretationsarbeit zielt darauf ab, den ‚Tod zu verachten’. Als schlecht gilt nunmehr eine Armee, die das Leben ihrer Soldaten exponiert, gut diejenige, die alles daran setzt sie zu schützen“, fasst das Motherboard-Blog die neue Moral des Krieges zusammen. Für einen Pazifisten ist das eine Perversion des Begriffes Moral. Je weiter sich der Mensch vom Opfer entfernt, je weniger der Mensch in den Tötungsvorgang eingebunden ist, desto mehr werden die Opfer entmenschlicht.

„Lassen wir Technologie absichtlich töten, legen wir den letzten Rest Menschlichkeit ab.“

Fast möchte ich als Humanist für diejenigen, die nicht aufs Töten verzichten können, wieder Schwerter und Rüstungen einführen. Einen Menschen mit dem Schwert zu enthaupten ist ungleich schwerer, als ein Fadenkreuz vor einem weißlich schimmernden Bildschirm auf eine Avatar-gleiche Figur zu richten und die Enter-Taste zu drücken. Aber was ist, wenn wir Drohnen voll automatisieren oder Roboter automatisiert gegen Geiselnehmer einsetzen – und so das Leben vollständig in die Hände der Technologie legen? Mit der Absicht Leben geplant zu beenden? Dann legen wir den letzten Rest Menschlichkeit ab, den sich ein Mensch in einem bewaffneten Konflikt noch bewahren kann.

Die Absicht ist entscheidend: Leben erhalten und nicht beenden

Tesla Autopilot im Einsatz. (Foto: Dirk Röder)
Tesla Autopilot im Einsatz. (Foto: Dirk Röder)

Wenn ich also fordere, wir sollen so schnell wie möglich noch mehr Leben in die Hand der Technologie legen, dann spreche ich von Technologien in einem klar abgegrenzten Anwendungsfall: Technologien, die es sich zur Aufgabe machen Leben zu behüten und nicht zu beenden.

Wo immer die Tötung eines Menschen als unabwendbar betrachtet wird, sollte der Mensch die letzte Instanz sein, die tödliche Entscheidung zu treffen. Und je persönlicher und näher am Opfer die Entscheidung getroffen wird, um so mehr kann der letzte Rest Menschlichkeit, der in solch einer Entscheidung noch verblieben ist, gewahrt bleiben.

Tod versus noch mehr Tod

(Foto: Shutterstock)
Der Verzicht auf Technologien wie Fahrassistenz-Systeme oder autonomes Fahren würde mehr Menschen das Leben kosten, als durch die Technologien zu Schaden kommen. (Foto: Shutterstock)

Aber auch Technologien, die Menschenleben bewahren wollen, können töten, wie das Tesla Fahrassistenz-System gezeigt hat. Die Frage ist, wie gehen wir als Gesellschaft mit dieser Tatsache um? Fordern wir von jeder neuen Technologie sofortige Perfektion? Stellen wir bei jedem Todesfall, der auf die Nutzung einer Technologie zurückgeht, die Technologie komplett in Frage? Nach dem Tesla-Crash werden sämtliche Technologien aus dem Bereich der Fahrassistenz und des autonomen Fahrens in Frage gestellt, nicht nur spezifisch der sogenannte „Autopilot“ von Tesla. Klar ist: Jedes System muss evaluiert werden, um Konstruktionsfehler zu finden, die im schlimmsten Fall Menschenleben kosten können. Aber Fehler können niemals ganz ausgeschlossen werden, es wird weitere Todesfälle geben.

Wir müssen lernen zu akzeptieren, dass Technologien Todesfälle verursachen können. Denn die Alternative ist wesentlich schrecklicher, auch wenn wir das vielleicht schon aus unserem Alltag verdrängt haben.

„Wir müssen akzeptieren, dass Technologie töten kann.“

Weltweit sterben im Straßenverkehr rund 1,3 Millionen Menschen – eine komplette Großstadt. In den USA, dem Land in dem sich der Tesla-Unfall ereignet hat, starben am selben Tag statistisch betrachtet 90 weitere Menschen, jährlich sind es rund 30.000.

Am selben Tag überfuhr eine Frau in Chicago eine rote Ampel, tötete eine Person und verletzte sechs weitere schwer. In Florida überschlug sich nahe Jacksonville ein Auto und tötete vier weitere Menschen. Und ein weiterer tödlicher Unfall im Nordosten des Bundesstaates Pennsylvania tötete am selben Tag drei Menschen, wie Hive recherchiert hat. Diesen rund 90 Menschen ist ungerechterweise wesentlich weniger Aufmerksamkeit gewidmet worden. Und niemand hat die Forderung gestellt, wir sollten den Menschen am Steuer „nochmal überdenken“, obwohl „der Mensch am Steuer“ an dem Tag mehr Menschenleben auf dem Gewissen hatte als das kleine Stück Tesla-Technologie.

„Unfallursache Nummer eins ist der Mensch.“

Ein Beispiel für die lebensrettenden Auswirkungen technologischer Fortentwicklung bietet die zivile Luftfahrt: Obwohl sich der Flugverkehr in den letzten 30 Jahren mehr als verdoppelt hat, ist die Anzahl der Unglücke bis 2005 schon um nahezu die Hälfte gesunken. Von 2005 bis 2015 hat sich die Anzahl fast noch einmal um die Hälfte verringert. Vom Autopiloten über Konstruktionsverbesserungen bis hin zu technischen Test- und Analyseverfahren hat jeder Flugzeugabsturz die Branche technologisch sicherer gemacht. Mehr und mehr werden Maschinen eingesetzt, um menschliche Unzulänglichkeiten zu kompensieren. Denn Unfallursache Nummer eins in der Luftfahrt ist und bleibt auch in den 2000er Jahren mit 57 Prozent der Mensch.

Absturzstelle des Fluges TK 1951 in Amsterdam. Das Turkish-Airlines-Flugzeug wurde vom Autopiloten beim Landeanflug in einen Acker gestürzt. Neun Menschen starben. (Fred Vloo / RNW)
Absturzstelle des Fluges TK 1951 in Amsterdam. Das Turkish-Airlines-Flugzeug wurde vom Autopiloten beim Landeanflug in einen Acker gestürzt. Neun Menschen starben. (Fred Vloo / RNW)

Unsere Technologie überholt unsere eigenen Fähigkeiten seit Jahrzehnten. Zwar gibt es noch einiges, was der Mensch besser beherrscht als eine Maschine. Aber Fortbewegungsmittel mit hoher Geschwindigkeit zu Luft oder Lande zu steuern gehört nicht dazu.

Der Transit von halbautomatischen Systemen zu vollautomatischen ist eine heikle Phase. Der Mensch wird seine eigenen, mangelhaften Fähigkeiten durch abnehmende Nutzung noch weniger trainieren und im Notfall noch fehlerhafter reagieren. Das zeigt sowohl der Tesla-Unfall als auch stellvertretend das Beispiel des 2009 vor der brasilianischen Atlantikküste abgestürzten AirFrance-Airbus, in dem sich die Intuition des Piloten als fataler Faktor herausstellte. In beiden Fällen haben sich Menschen offenbar zu sehr auf die Technik verlassen.

Der Mensch tötet im Alleingang wesentlich mehr Menschen, als jede Technologie, die dazu eingesetzt wird um die menschlichen Unzulänglichkeiten maschinell zu kompensieren. Das betrifft ganz besonders den Straßenverkehr und im Speziellen auch die Fahrassistenz-Technologie sowie deren großen Bruder, das autonome Fahren.

Jetzt von diesen Technologien völlige Perfektion zu fordern, wird nicht nur den technischen Fortschritt bremsen, sondern die Menschheit jede Menge wertvolles Leben kosten.

Mehr zum Thema Fahrassistenz-Systeme: Die Assistenz-Systeme von Tesla und BMW im t3n-Test

Finde einen Job, den du liebst

16 Reaktionen
Mike
Mike

Dein Autopilot steuert dich auf einer Brücke mit hoher Geschwindigkeit auf eine Menschenansamlung nach einem vorhergangenen Unfall zu. Ein Crash in die Fussgängergruppe ist unvermeidlich - es sei denn, man steuert in den Abgrund, um das Retten der Fussgänger zu retten. Wie entscheidest Du Dich? Und was macht der Autopilot?

Antworten
Jochen G. Fuchs

Das ist quasi ebenfalls das Trolly-Dilemma, nur verschärft – da stehen meine Ausführungen schon in dem Post über dir. Ich würde die Augen schließen und in den Abgrund fahren. Aber nur wenn ich alleine im Auto bin. Mit Frau und Kind würde die Entscheidung realistisch betrachtet anders aussehen.

Das ist aber ein Szenario, das in einem Auto um ein vielfaches unwahrscheinlicher ist als in einem Flugzeug.

Eine Frage stellt sich aber noch: Wenn bekannt ist, dass der Autopilot im Zweifelsfalle den Halter tötet, statt die Menschenmenge vor ihm – kauft dann noch jemand das Auto?

Antworten
Jochen G. Fuchs

Ja, da stimme ich dir zu, der Kontrollverlust macht Angst. Das Problem mit der Abwägung von Menschenleben ist in der Philosophie auch bekannt als „Trolly-Dilemma: https://de.wikipedia.org/wiki/Trolley-Problem.“

Als Mensch entscheidet man sich tatsächlich bewusst für die lebenserhaltende Variante, die „Aufrechnung“. Es gibt Beispiele aus der Luftfahrt dafür: http://www.morgenpost.de/vermischtes/article105016174/Luftschiff-Pilot-opfert-sich-fuer-seine-Passagiere.html.

Auch in Gedankenspielen aus der Forschung: http://www.bzbasel.ch/leben/forschung-technik/selbstfahrende-autos-zuerst-muss-ein-moralisches-dilemma-geklaert-werden-129972071

Rechtlich verstößt die „Aufrechnung“ gegen die Menschenwürde in Deutschland, aber eine Notstandsregelung sorgt nach allgemeiner Rechtsinterpretation dafür, dass ein Mensch in einem solchen Falle keine Schuld zuzuweisen wäre.

Die perzeptive Robotik gibt ihren Produkten ja bereits Sets an „Verhaltensregeln“ mit. Es wird wohl am entscheidenden Entwicklungszeitpunkt ein solcher Algorithmus kommen müssen.

Antworten
sascha fuchs
sascha fuchs

Früher oder später sind wir es gewohnt das uns eine Maschine fährt, die derzeitige Panik (siehe die Kinowelle des letzten Jahres über die Grundangst KI) die durch den Tesla Unfall angefeuert wird, hängt mit der Angst vor dem Kontrollverlust zusammen.
Prinzipiell bin ich für eine Automatisierung, weil sie helfen wird das Mensch wieder Zeit spart, den die größte Bremse in der heutigen Welt ist nun mal der Mensch der immer öfter Überfordert wirkt. Straßenverkehr ist das beste Bespiel, eine Kette von Fehlentscheidungen, falschen Reaktionen, Unaufmerksamkeit und Egoismus führt zu Unfällen, Staus, etc.

Eine Maschine sollte Leben schützen, aber eine große Frage steht noch im Raum. Was ist wenn eine Maschine abwägen muss zwischen zwei möglichen Opfern? Fährt man die 80 Jährige Oma am Straßenrand über den Haufen, oder bringt man das Fahrzeug dazu das es zur linken ausbricht, wo man dann ein kleines Kind im Bobycar erwischt, oder einfach Gerade aus an die Häuserwand, während auf dem Rücksitz ein kleines Kind sitzt. Ist ein extrem Beispiel und als Mensch wird man sich nie bewusst entscheiden, vor allem da die meisten Menschen in einer solchen Situation kaum die Fähigkeit besitzen überhaupt abzuwägen, aber bei einer Maschine vollgestopft mit Sensoren muss man schon überlegen wie sie handeln sollte.

Antworten
Dennis

Das autonome Fahren wird immer mehr kommen und ich finde es super. Ausfälle wird es immer geben, genauso wie ein Mensch einmal unaufmerksam sein kann. Eins ist aber sicher, Tesla wird an diesem fehler arbeiten und sein System verbessern. Der Mensch wird aber nicht draus lernen und eine pause einlegen zwischen den strecken um ausgeruhter im Verkehr zu sein...

Antworten
Sehwolf
Sehwolf

sehr wohltuend im mal einen vom medialen konsens abweichenden artikel zu lesen. die deutsche medienlandaschaft ist ja nun nich gerade technikfreundlich. zum glück fährt der tesla mit elektriziät, man stelle sich nur mal vor, er würde mit genmanipulieretn rapsöl laufen oder so.
eine sachliche und nüchterne analyse. Danke dafür

ich störe mich allerdings auch am verb töten. lars bezieht sich vermutlich uf die juristische definition (von toschlag), mir reicht die des dudens um mein unbehagen zu illustrieren.

1. den Tod von jemandem, etwas herbeiführen, verursachen, verschulden
Selbstmord begehen
2. (umgangssprachlich) bewirken, dass etwas zerstört, vernichtet wird

keines von beiden trifft hier zu.

das ist aber wirklich nitpicking in einem ansonsten gelungen artikel

Antworten
Jochen G. Fuchs

Hallo Sehwolf,

da du schon der Zweite bist, der das anspricht, interessiert mich was wohl genau stört.

Ist es tatsächlich eine begriffliche Frage, also eine Frage der inhaltlichen Definition?

Ich schlußfolgere inhaltlich ja tatsächlich, dass der Autopilot den Tod verursacht hat. Eine simple Ursache-Wirkung-Schlussfolgerung: Der Autopilot hat Brown unter den Anhänger gesteuert, was zum Tod geführt hat.

Oder klingt „hat den Tod verursacht“ besser als „töten“?

Wenn ja, dann gibt es vielleicht eine psychologischer Ursache dafür, dass ihr euch an dem Wort stört? Ich schreibe ja: „Die Vorstellung, dass eine Maschine einen Menschen tötet, macht uns Angst, rührt an den Grundpfeilern der Menschlichkeit. “

Ansonsten: Danke.

Viele Grüße,
Jochen

Antworten
Lars
Lars

Nach technischer (normativer) Definition kann eine Maschine einen Menschen nicht töten. Das setzt nämlich grundsätzlich vorraus dass deren Algorithmen abwägen können. Dafür fehlt derzeit jedoch die KI. Auch sollten Nicht-Ingenieure sich noch einmal die amtlichen (sic!) Definitionen von Maschine, Roboter und Drohne ansehen und auch die von automatisiert, teilautomatisiert, vollautomatisiert und autonom.

Antworten
Jochen G. Fuchs

Hi Lars.

Verzeihung aber kannst das untermauern oder erläutern worauf du hinauswillst? Für mich klingt das nicht nachvollziehbar. Nur weil etwas nicht normiert ist, heißt das nicht, dass es das nicht gibt.

Natürlich kann eine Maschine einen Menschen töten. Sie kann ihn vielleicht nicht absichtlich ermorden, weil ihr dazu Intentionen fehlen, aber den rein technischen Tötungsvorgang kann eine Maschine sehr wohl durchführen.

Und ob die Voraussetzungen für eine Abwägung fehlen, das wage ich zu bezweifeln. Die perzeptive Robotik ist da recht weit.

http://www.sueddeutsche.de/wissen/aussenansicht-wenn-maschinen-menschen-toeten-1.2509354

http://t3n.de/news/magazino-logistik-roboter-toru-669240/

Viele Grüße,
Jochen

Antworten
Johannes
Johannes

Guten Morgen,
ich finde den Kommentar gelungen allerdings stört mich ein bisschen der so oft erwähnte Ausdruck, dass der Tesla den Menschen getötet hätte. Tesla weißt darauf hin, dass man zu jederzeit in das Fahrgeschehen eingreifen können muss und wenn ich mich einer Kreuzung nähere bei der ein LKW auf mich zu kommt dann erst recht. Ich finde auch wenn es hart klingen mag, dass Joshua es leider selbst zu verantworten hat.

Antworten
Jochen G. Fuchs

Hallo Joshua,

das verstehe ich, dass dich das stört. Es geht mir aber weniger um das moralische Verschulden, als um die schlichte Betrachtung der technischen Abfolge. Der Tod von Brown ist faktisch durch das System herbeigeführt worden, eine unmittelbare Folge der Steuerung durch den Autopilot.

Deshalb habe ich „technisch betrachtet“ geschrieben. Hätte ich vielleicht noch deutlicher machen können.

Aber das haben wir jetzt ja erledigt.

Ansonsten: Danke.

Viele Grüße aus der Redaktion,
Jochen

Antworten
Andreas

Nach meiner Einschätzung hat Tesla maximal eine Mitschuld am Tod von Brown. Die Hauptschuld hat immernoch der LKW Fahrer, welcher die Vorfahrt missachtet hat (ein LKW mit "Autopilot" bzw. Abbiegeassistent hätte den Tesla möglicherweise erkannt). Und wer lässt das Linksabbiegen ohne Lichtsignalanlage auf einen Highway zu? Auf einer zweibahnig vierstreifigen Straße in Deutschland nicht vorstellbar.

Norman
Norman

"Technisch betrachtet getötet hat das System Joshua Brown also getötet."

Antworten
Jochen G. Fuchs

Ah, Mist. Danke Norman. Ich korrigiere das, sobald ich wieder am Schreibtisch sitze.

Viele Grüße aus der Redaktion,
Jochen

Antworten
Bitte melde dich an!

Du musst angemeldet sein, um einen Kommentar schreiben zu können.

Jetzt anmelden