KI-Experte zu SUV-Unfall: So hätte autonomes Fahren Menschenleben retten können
![Ab Autonomiestufe Drei hätte ein Auto den tragischen Unfall von Berlin vermeiden können. KI-Experte zu SUV-Unfall: So hätte autonomes Fahren Menschenleben retten können](https://images.t3n.de/news/wp-content/uploads/2019/09/shutterstock-171883982.jpg?class=hero)
Ab Autonomiestufe Drei hätte ein Auto den tragischen Unfall von Berlin vermeiden können.
Nach einem schweren Unfall in Berlin Mitte am vergangenen Freitag ist eine Diskussion um Geländewagen in Innenstädten entbrannt: Sind SUVs zu gefährlich für Innenstädte?
Ein SUV des Typs Porsche Macan war in Berlin von der Straße abgekommen, hatte eine Ampel und mehrere Poller überfahren und auf dem Bürgersteig vier Menschen getötet, bevor er in einem Bauzaun zum Stehen kam. Laut Presseberichten könnte ein epileptischer Anfall des Fahrers den tödlichen Unfall ausgelöst haben.
Wir haben Christian Müller, den Experten des Deutschen Forschungszentrum für Künstliche Intelligenz gefragt, wann KI einen ähnlichen Unfall verhindern könnte.
t3n: Herr Müller, wie autonom müsste ein Auto sein, um einen Unfall wie den in Berlin zu verhindern?
Christian Müller: Das Auto bräuchte dafür den voll ausgebauten Stack eines autonomen Fahrzeugs: Self-Localization, Perception und Trajectory-Planning, um abgleichen zu können, ob das, was der Fahrer tut, Kollisionsfreiheit gewährleistet, wenn der Fahrer einen Schlaganfall, Infarkt oder epileptischen Anfall hat. Aus rechtlicher Sicht wäre es problematisch, wenn ein Auto die Fahrmanöver des Fahrers überschreibt, ohne zu wissen, was mit dem Fahrer los ist. Aber in Level-Drei-Fahrzeugen ist ja auch Innenraumüberwachung vorgesehen. Also: Man kann sich vorstellen, dass ein Level-Drei-Fahrzeug in der Lage wäre, in so einem Notfall einzugreifen. Das hätte tatsächlich vier Menschen das Leben retten können.
t3n: Können Sie die Komponenten noch einmal genau beschreiben, die es dafür bräuchte?
Erstmal Selbstlokalisation: Das wäre eine andere Liga als das GPS, dass wir auf dem Handy haben. Es geht da um High-Definition-Maps, die auch die Lampen und Vegetation mit drauf haben, um bestimmen zu können, wie das Auto in die Karte passt. Aber die Systeme dafür wie SLAM gibt es bereits. Und Nokia Here, Nav Info und Tom Tom arbeiten auch schon mit HD-Maps.
t3n: Und dazu dann die Sensoren des Autos …
Genau, dazu bräuchte man eine Umfeldwahrnehmung: multisenoriell, mit Radar, Lidar und einer Kamera. So ein typischer Mix von Umfeldwahrnehmung erkennt alle dynamischen Objekte, weiß, dass sich da Fußgänger befinden (und weiß auch von der HD-Map, dass sich da leicht verletzliche Verkehrsteilnehmer befinden könnten.)
t3n: Was würde das Auto dann idealerweise mit den Infos machen?
Das Auto würde eine Umfelderkennung durchführen und mit den Daten eine typische Trajektorie planen. Es würde feststellen, dass die selbst geplante Trajektorie stark von der Trajektorie abweicht, die der Fahrer eingeschlagen hat. Über die Innenraumüberwachung würden dann Informationen kommen, die nahelegen, dass der Fahrer nicht voll da ist. Alles zusammengenommen würde die Notfallbremse aktivieren und das Fahrzeug hält an.
t3n: Das Fahrzeug merkt, dass das nicht der richtige Weg sein kann, und stoppt?
Die Fahrzeuge müssen ein sogenanntes Minimal-Risk-Manoeuvres für die Situation beherrschen, sonst werden sie nicht zugelassen. Auf einer Autobahn könnte das zum Beispiel sein, auf dem Standstreifen zum Stehen zu kommen. Welches jeweils das optimale Minimal-Risk-Manoeuvre ist, ist noch nicht abschließend geklärt. In einer Situation in Berlin könnte es zum Beispiel sein, Energie aus dem System herauszunehmen – in anderen Worten, bremsen.
t3n: Wie nahe ist die Industrie schon dran, solche Autos zu bauen?
Die Systeme gibt es alle, sie werden überall auf der Welt erprobt. Wann es eine hinreichend hohe Wahrscheinlichkeit gibt (und genug autonome Autos auf der Straße), dass das Auto in so einem Unfall tatsächlich so reagiert und so ein Unfall verhindert werden würde, ist eine andere Frage. Es könnte noch bis zu 20 Jahre dauern, damit man mit hinreichend hoher Wahrscheinlichkeit davon ausgehen könnte, dass das betreffende Fahrzeug in einem Unfall das kann. Aber Autos, die so etwas demonstrieren können, gibt es schon, von eigentlich allen Herstellern. Da steht eben noch die regulatorische Hürde davor.
t3n: Es würde also schon Autos geben, die auf einem Testgelände in so einer Situation rechtzeitig bremsen würden?
Nicht nur auf dem Testgelände. Auch in Berlin gibt es schon Teststrecken in der Stadt, auf denen unbemerkt Autos fahren, die das vielleicht schon können. Natürlich noch mit Fahrern drin, zur Sicherheit. Und die deutschen Hersteller können das eigentlich alle schon bauen: BMW, Daimler, Audi und VW arbeiten an Level-Drei-Autos. Auch die Zulieferer könnten diese Autos eigentlich schon bauen.
t3n: Vielen Dank für das Gespräch.
Mehr zum Thema: Umfrage vor der IAA: E-Autos und autonomes Fahren haben es in Deutschland schwer
Irgendwie ist das Interview solala oder der Titel einfach falsch. Denn wenn ein Auto Autonom fahrt gibt es keine Eingabe vom Menschen und somit wäre solch ein Unfall nicht passiert.
Auch hätte das Auto nicht überprüfen müssen ob jetzt die Eingabe vom Menschen korrekt oder inkorrekt ist.
Bei solchen theoretischen Betrachtungen … wird immer vergessen, dass diese System ALLE von Menschen programmiert sind und Menschen machen Fehler bzw. werde NIE alle potenziellen Szenarien vorhersehen.
Das heißt … ein sogenanntes autonomes Fahrzeug wird genauso wenig fehler- bzw. unfallfrei sein, wie ein Mensch mit Routine & Erfahrung.
WENN … Maschinen in der Lage sind sich selbst zu programmieren … dann Gnade uns Gott!! … dann sind Visionen a la Terminator nicht mehr fern, denn warum sollten die „perfekten“ Maschinen sich mit „fehlerhaften“ Menschen abgeben?
Und eine noch … WER haftet, wenn ein autonomes Fahrzeug doch mal einen Unfall verursacht?
#1 Der Programmierer?
#2 Der Qualitätssicherer bzw. der die Annahme der SW gemacht hat?
#3 Der Hersteller des Fahrzeug
#4 Der Halter des Fahrzeug (einen Fahrer gibt es ja nicht …)
#5 ??
Bei #4 … dann brauche ich kein autonomes Fahrzeug! .. dann fahre ich liebe selber!
Bei #1 und #2 … wohl kaum!
Bei #3 … möglich … aber in welcher Form? Wenn z.B. ein Sensor am Fahrzeug verschmutzt war, haftet dann der Halter/Fahrer, weil er diesen nicht gereinigt hat?. .. oder hält das Fahrzeug dann an und bitte „Einmal Sensor-Reinigen bitte!“??
Es wir Szenarien für sogenannte autonome Fahrzeuge geben, z.B. im Katastropheneinsatz … aber im städtischen Verkehr?
Gähn … Wenn dich diese „brennenden“ Fragen wirklich interessieren würden, dann hättest du dir die Mühe gemacht und ein bisschen recherchiert. Sie sind nämlich alle längst und schlüssig beantwortet.
Es gibt eine Norm, die für die Entwicklung von sicherheitsrelevanten Systemen im Auto erfüllt werden muss, die ISO 26262. Sie beinhaltet neben prozessualen Aufgaben auch technische Anforderungen, die je nach Grad der potentiellen Gefährdung erfüllt werden müssen (z.B. Redundanz).
Juristisch schwierig sehe ich das autonome Fahren bei Level 4 Fahrzeugen, die also noch manuell bewegt werden können.