Analyse

Das selbstfahrende Auto: Was ist Hype und was ist umsetzbar?

(Bild: metamorworks/ Shutterstock)

Kaum ein Tag vergeht, ohne dass in den Medien über Gefahren oder Chancen des autonomen Fahrens geredet wird. Was aber steckt hinter dem Hype und was ist wirklich umsetzbar?

Zu Beginn jeder guten Analyse stehen die Definitionen – und die sind insbesondere in der Debatte um selbstfahrende Autos wichtig. Denn auch wenn einige Visionäre einen anderen Eindruck vermitteln, liegen Welten zwischen Fahrassistenzsystemen, wie wir sie heute kennen, und dem eigentlichen autonomen Fahren.

Das Stufenmodell des autonomen Fahrens

Die allgemeingültigen Definitionen zum autonomen Fahren stammen von der internationalen Society of Automotive Engineers. Sie unterteilen die Entwicklung des autonomen Fahrens in insgesamt sechs Stufen. Entscheidend ist dabei die Frage, inwieweit der menschliche Fahrer noch aktiv sein muss. Bei Level null bis zwei ist der Mensch noch aktiv involviert. Die Technologie – wie zum Beispiel Teslas Autopilot – übernimmt viele ausführende Aufgaben, der Überblick und die letztliche Verantwortung liegt jedoch beim menschlichen Fahrer.

Auf der dritten Entwicklungsstufe beginnt das autonome Fahren mit Features wie Stauassistenten. Hier übernimmt die Technologie zeitweise, der Mensch muss allerdings im Ernstfall innerhalb von Sekundenbruchteilen reagieren und das Steuer übernehmen können. Level vier sieht vor, dass Autos in speziell dafür vorgesehenen Bereichen wie Fabrikgeländen vollautonom fahren; das komplett autonome Fahren, bei dem Fahrzeuge in der gesamten Stadt unter sämtlichen Bedingungen selbstständig fahren, ist dann schließlich Level fünf.

Level fünf wird so verstanden, dass ein Fahrer keine Fahrerlaubnis mehr benötigt – und Fahrzeuge vermutlich auch kein Lenkrad mehr haben werden. Dieses Level lässt sich recht einfach erreichen, sobald Level vier erreicht wurde. Doch selbst auf Level fünf wird ein und dasselbe Fahrzeug vermutlich nie sowohl in Detroit als auch in Jakarta fahren können, weil sich die Umgebungsparameter von Stadt zu Stadt grundlegend unterscheiden. Auch hier bestehen also zumindest vorerst Restriktionen. Sofern verfügbar, ließen sich allerdings Fahrmodelle für unterschiedliche Regionen ins System des Fahrzeugs laden.

Revolution statt Evolution

Der wirklich bedeutende Schritt findet also erst beim Übergang von Level drei zu Level vier statt – und er verlangt eine völlig neue Herangehensweise. Bis zur dritten Stufe reicht es aus, einen regulären software-basierten Ansatz zu verfolgen, der von der richtigen Hardware unterstützt wird. Der Straßenverkehr ist jedoch hochkomplex und unvorhersehbar. Sobald es also darum geht, in Situationen mit vielen unbekannten Variablen schnell und flexibel richtig reagieren zu können, müssen die Lösungsansätze zusätzlich KI- und datenzentriert sein. Die Automobilbranche muss sich deshalb neuen Herausforderungen stellen.

Viele der bisherigen Entwicklungen werden zwar auch für die Stufen vier und fünf des autonomen Fahrens sehr wichtig sein. Dazu gehören zum Beispiel die Fortschritte im Bereich der Sensorik. Großer Nachholbedarf besteht, vor allem in Deutschland, allerdings besonders bei der Datenverarbeitung, bei KI-Ansätzen und in der Cybersicherheit.

Herausforderung für die deutsche Automobilindustrie

Die deutsche Automobilindustrie gründete ihren Erfolg bislang auf innovative Ingenieursleistungen – ein Großteil davon mit mechanischem Fokus. Für das autonome Fahren reicht das allerdings nicht mehr aus. Nicht umsonst entwickeln sich gerade Digitalunternehmen wie Googles Waymo und Aurora zu den größten Konkurrenten der klassischen Automobilindustrie. Die hat nun an zwei Fronten zu kämpfen: Zum einen geht es ja weiterhin darum, verlässliche und technisch anspruchsvolle Produkte zu liefern. Zum anderen müssen sie aber auch auf High-Tech-Ebene ein vergleichbares Niveau erreichen wie die Digitalunternehmen, um im internationalen Wettbewerb zu bestehen.

Das schließt auch den Organisationsaufbau der Unternehmen mit ein: Denn agile Lösungen entstehen nicht in festgefahrenen Strukturen. Der Erfolg im prä-digitalen Zeitalter ist hier Segen und Fluch zugleich für die deutschen Automobilunternehmen. Schließlich sind flexible und innovative Strukturen in jungen und von Grund auf digital aufgestellten Einheiten wie Tesla und Waymo leichter zu bewerkstelligen als in global umspannenden, traditionell gewachsenen Unternehmen mit mehreren Hunderttausend Mitarbeitern. Hinzu kommt, dass die Entwicklung zum autonomen Fahren das Auto als Ganzes verändert: IT, Elektronik und der ganze Aufbau eines Wagens sind davon beeinflusst. Bestehende Lieferketten müssen schrittweise angepasst werden – wer keine Lieferkette hat, kann sich von Beginn an danach ausrichten.

Startups und Innovation Labs als Testballons

Um den Anschluss nicht zu verlieren, lassen viele der großen deutschen Unternehmen mittlerweile auch Testballons mit neuen Organisationsstrukturen fliegen: Die Zusammenarbeit mit Startups wird aktiv gesucht, Investitionsprogramme gestartet und Innovation-Labs ins Leben gerufen.

Damit Deutschland als Digitalstandort im internationalen Wettbewerb bestehen kann, brauchen wir allerdings verlässliche rechtliche Rahmenbedingungen zum autonomen Fahren. Wenn Unternehmen nicht wissen, ob ihre heutigen Entwicklungen morgen noch rechtlich zulässig sind, führt dies zu Unsicherheiten und hemmt Innovationen.

Doch steigende Investitionen in den Ausbau einer ausreichenden Dateninfrastruktur, einer verlässlichen künstlichen Intelligenz und in skalierbare Computing-Lösungen sind das Gebot der Stunde. Digitalunternehmen haben sich diesen Fragestellungen von Anfang an gewidmet – wenn die deutsche Industrie nicht nachzieht, wird es bald zu spät sein.

Bitte beachte unsere Community-Richtlinien

Wir freuen uns über kontroverse Diskussionen, die gerne auch mal hitzig geführt werden dürfen. Beleidigende, grob anstößige, rassistische und strafrechtlich relevante Äußerungen und Beiträge tolerieren wir nicht. Bitte achte darauf, dass du keine Texte veröffentlichst, für die du keine ausdrückliche Erlaubnis des Urhebers hast. Ebenfalls nicht erlaubt ist der Missbrauch der Webangebote unter t3n.de als Werbeplattform. Die Nennung von Produktnamen, Herstellern, Dienstleistern und Websites ist nur dann zulässig, wenn damit nicht vorrangig der Zweck der Werbung verfolgt wird. Wir behalten uns vor, Beiträge, die diese Regeln verletzen, zu löschen und Accounts zeitweilig oder auf Dauer zu sperren.

Trotz all dieser notwendigen Regeln: Diskutiere kontrovers, sage anderen deine Meinung, trage mit weiterführenden Informationen zum Wissensaustausch bei, aber bleibe dabei fair und respektiere die Meinung anderer. Wir wünschen Dir viel Spaß mit den Webangeboten von t3n und freuen uns auf spannende Beiträge.

Dein t3n-Team

3 Kommentare
Lars Tragl
Lars Tragl

Besteht das Problem nicht viel eher darin, dass der bestehende Stand der Technik bei der funktionalen Sicherheit, welcher auf dem gesammelten Ingenieurwissen der letzten Jahrhunderte beruht, beim „autonomen“ Fahren nicht erfüllt werden kann?

Das was in Tabelle A.2 der 61508-3 unter „5. künstliche Intelligenz – Fehlerkorrektur“ steht wurde ja nicht da rein geschrieben weil man künstliche Intelligenz, machine learning usw doof findet. Sondern weil es schlicht und ergreifend unmöglich ist für ein System dessen Verhalten nicht in jeder Betriebssituation vorhergesagt werden kann eine Validierung durchzuführen um die Ausfallwahrscheinlichkeit überhaupt nachzuweisen. Ganz davon zu schweigen dass diese Ausfallwahrscheinlichkeit dann auch noch im Bereich von SIL 3 oder ASIL D liegen würde, wo man bei Funktionen für ein selbstfahrendes Auto ja schnell landet.

Daran wird auch kein „Anhängsel“ an die 26262 wie Sotif was ändern. Das sind halt Grundsätze der Logik.

Und was soll denn immer dieses rumreiten auf den „rechtlichen Voraussetzungen“?

Die rechtlichen Voraussetzungen sind die Produkthaftungsgesetze in den westlichen Ländern, die eben darauf basieren dass der Hersteller seiner Sorgfaltspflicht nachgekommen ist indem er den Stand der Technik einhält.

Wenn er das nicht kann weil der Stand der Technik unerreichbar ist dann müsste die in dieser Frage oft angerufene „Politik“ den Bürgern erklären, dass der Hersteller von seiner Haftung befreit ist auch wenn das Fahrzeug jemanden totfährt weil ihn das System zum autonomen Fahren halt nicht als Person auf der Fahrbahn erkannt hat.

Denn der Hersteller kann ja kein Produkt verkaufen welches nach dem Stand der Technik unsicher ist, da er dann für jeden Personenschaden die volle Haftung übernehmen müsste.

Welcher Politiker sollte denn den Bürgern erklären dass das so ist? Und auf welcher rechtlichen Basis?

Dass das Leben des Menschen über dem Profit des Unternehmens (oder dem Wunsch nach autonomen Fahren) steht kann ja bereits dem Grundgesetz entnommen werden.

Selbst wenn die „Politik“ also ein Gesetz macht welches Hersteller von autonomen Fahrzeugen von der Pflicht befreit den Stand der Technik bei der funktionalen Sicherheit einzuhalten um der persönlichen Haftung zu entgehen, dann würde dieses wohl gegen das Grundgesetz verstoßen.

Mich wundert, das über die tatsächlichen Probleme so wenig geschrieben wird. Wäre doch für jeden Journalisten ein interessantes Thema, statt immer wieder neue Interviews mit dem x-ten Spezialisten für autonomes Fahren, der doch nur wieder Ausdrücke aus dem BS-Bingo fallen lässt und sonst nichts sagt.

Antworten
Andreas
Andreas

Die Crux ist ja, das autonome Fahren nicht zu erlauben, die rechtliche Haftungsfrage über Menschenleben setzt. Wenn 10x so wenig Menschen mit autonomen Fahrzeugen sterben würden, die Software aber nicht gut genug ist dass niemand stirbt und es paar tausende Opfer immer noch gibt, was dann? Die Hersteller können es sich nicht leisten zu haften also kommt die Technologie nie auf dem Markt und wir haben weiterhin die 10x Opferanzahl?

Antworten
Lars Tragl
Lars Tragl

Nein, das ist so nicht ganz richtig. Bzw. diese Fragestellung ergibt sich gar nicht.

Zum einen setzen Aussagen wie „Wenn 10x so wenig Menschen mit autonomen Fahrzeugen sterben…“ voraus das die tatsächliche Ausfallrate des autonomen Fahrsystems bekannt ist.

Das diese gar nicht bestimmt werden kann habe ich ja oben bereits ausgeführt. Wie viele gefährliche Ausfälle pro Stunde es geben würde stellt sich somit erst im Betrieb raus.

Es scheint auch vielen nicht bewusst zu sein was SIL 3/ASIL D bzw. PFHd von 10^-7 oder weniger bedeutet. Nämlich über 1100 Jahre Dauerbetrieb ohne gefährlichen Ausfall. Was sehr viel ist.

Bei einer durchschnittlichen Fahrgeschwindigkeit von 30km/h wären das 289080000km Fahrtstrecke. Wobei ich an dieser Stelle vorsorglich darauf hinweisen möchte das ein „Gesund-Testen“ als Nachweis der funktionalen Sicherheit grundsätzlich nicht möglich ist, besonders natürlich bei einer so hohen Anforderungsstufe.
Macht auch Sinn wenn man drüber nachdenkt, da gerade bei einem offenen System mit unendlich vielen möglichen Gefährdungs-Szenarien durch Testen lediglich nachgewiesen wird das es halt unter den zufällig während des Tests aufgetretenen Szenarien geklappt hat. Was über alle anderen möglichen Szenarien nichts aussagt.

Wodurch auch das hohe Gewicht etwas relativiert wird, welches immer auf die ach so vielen von Waymo gefahrenen/simulierten Kilometer gelegt wird.

Neben der Tatsache das die Ausfallrate für diese Systeme eben nicht im Voraus ermittelt werden kann, und somit auch nicht gesagt werden kann „x Menschen weniger würden sterben“, liegt die Problematik zum anderen eher in der Natur der Haftungsfrage.

Wenn ein Mensch jemandem körperlichen Schaden zufügt muss er sich dafür vor Gericht verantworten, und bekommt eine Strafe wenn er verurteilt wird.

Wenn eine automatisch arbeitende Maschine jemandem körperlichen Schaden zufügt, dann kann man sie zur Strafe nicht in den Schrank sperren oder sowas.

Daher ist der Hersteller laut Gesetz dafür verantwortlich, das von der Maschine bei bestimmungsgemäßem Gebrauch und sogar vorhersehbarer Fehlanwendung keine Gefahr für die Gesundheit von Menschen ausgeht.

Eine 100% sichere Maschine zu bauen ist aber technisch unmöglich. Deswegen werden in den Normen zur funktionalen Sicherheit „erlaubte“ Ausfallraten je nach Sicherheitsanforderungsstufe gegeben.

Wenn der Hersteller nachweisen kann das er den Stand der Technik eingehalten hat und es kommt trotzdem zu einem Personenschaden durch die Maschine, dann gibt es tatsächlich keinen Schuldigen der haften muss.

Weil es aber dazu führen würde das die Leute auf die Barrikaden gehen wenn z.B. in großen Fertigungsbetrieben jedes Jahr 5 bis 10 Leute bei Arbeitsunfällen sterben, sind diese nach dem Stand der Technik „erlaubten“ Ausfallraten eben sehr gering (im Bereich der natürlichen Sterblichkeitsrate von 5 bis 15-Jährigen etwa).

Daher sind Aussagen wie „das System ist sicherer als der Mensch“ irrelevant, weil der Mensch bei einer automatisierten Funktion kein Maß darstellt.
Weil eben eine Ausfallrate die der menschlichen Zuverlässigkeit entspricht bei so hohem Risiko nicht mehr gesellschaftlich akzeptiert wird und daher nicht mehr gesetzlich erlaubt ist (siehe z.B. Zugunglücke vor 100 Jahren ohne bzw. mit unzureichenden Zugsicherungssystemen, welche verhindern sollen das der Lokführer ein rotes Signal überfährt).

Deswegen müsste ein autonomes Fahrzeug sicherer sein als ein menschlicher Fahrer, und Aussagen wie „der Mensch macht ja auch Fehler“ sind überhaupt nicht relevant, weil das bei der Produkthaftung nicht interessiert.

Melde dich mit deinem t3n Account an oder fülle die unteren Felder aus.

Bitte schalte deinen Adblocker für t3n.de aus!

Hey du! Schön, dass du hier bist. 😊

Bitte schalte deinen Adblocker für t3n.de aus, um diesen Artikel zu lesen.

Wir sind ein unabhängiger Publisher mit einem Team bestehend aus 65 fantastischen Menschen, aber ohne riesigen Konzern im Rücken. Banner und ähnliche Werbemittel sind für unsere Finanzierung sehr wichtig.

Danke für deine Unterstützung.

Digitales High Five,
Stephan Dörner (Chefredakteur t3n.de) & das gesamte t3n-Team

Anleitung zur Deaktivierung