Nach Unfall mit 3 Toten: US-Behörde nimmt Autopilot von Tesla wieder ins Visier

Am 12. Mai kam es im kalifornischen Newport Beach zu einem folgenschweren Unfall mit einem Model S von Tesla. Das E-Auto soll dabei gegen einen Bordstein geprallt und anschließend mit Baumaschinen zusammengestoßen sein. Alle drei Insassen kamen bei dem Unfall ums Leben. Darüber hinaus mussten drei Bauarbeiter mit nicht lebensbedrohlichen Verletzungen ins Krankenhaus gebracht werden. Ob Teslas Fahrassistenzsystem Autopilot aktiviert war, hat die Polizei nicht bekanntgegeben. Dass sich jetzt die US-Verkehrssicherheitsbehörde NHTSA eingeschaltet hat, zeigt, dass das zumindest vermutet wird.
Einem Bericht des Wall Street Journal zufolge soll die NHTSA die Ermittlungen in dem Fall aufgenommen haben. Die Behörde ist laut eigenen Angaben derzeit schon mit der Untersuchung von über 30 Unfällen beschäftigt, in die der Tesla-Autopilot involviert gewesen sein soll. Im August 2021 hatte die NHTSA schon eine formale Untersuchung des Systems eingeleitet, in deren Fokus vor allem Unfälle mit Einsatzfahrzeugen stehen. Dabei ging es um – zu diesem Zeitpunkt – elf Unfälle mit Einsatzfahrzeugen, die bei 17 Menschen zu Verletzungen und bei einem zum Tod führten.
Die Untersuchungen der NHTSA und die zum Teil tödlichen Unfälle, bei denen das Autopilot-System eine Rolle spielt, sind übrigens wohl einer der Gründe dafür, dass Tesla aus dem S&P-Nachhaltigkeitsindex geflogen ist. Vor allem der Rausschmiss und weniger die neuen Untersuchungen der NHTSA sorgen dafür, dass die Tesla-Aktie zuletzt weiter an Wert verloren hat. Tesla-Chef Elon Musk ist allerdings – nicht ganz zu Unrecht – der Meinung, dass der Nachhaltigkeitsindex des S&P eher eine Augenwischerei als echte Messlatte ist. Schließlich findet sich dort der Ölkonzern Exxon in den Top-Ten.
Die NHTSA sieht sich wiederum in der Kritik durch die Transportsicherheitsbehörde NTSB, wie Engadget schreibt. Der Vorwurf: Die NHTSA schaffe es nicht sicherzustellen, dass Autohersteller wie Tesla, die autonome Features nach Level 2 anbieten, über wirkungsvolle Sicherheitsfunktionen verfügten. NTSB-Chefin Jennifer Homendy etwa hat die Beschreibung von Teslas Autopilot als Full-Self-Driving (FSD) als „missverständlich und unverantwortlich“ bezeichnet. Das habe „eindeutig zahlreiche Menschen dazu verleitet, die Technologie falsch zu nutzen und zu missbrauchen“, so Homendy.
Auch in Deutschland werden Teslas Autopilot, die mangelnden Datenschutzmaßnahmen und das Sicherheitskonzept des E-Autobauers zum Teil scharf kritisiert. Das Kraftfahrt-Bundesamt (KBA) forderte Tesla erst im März 2022 auf, die Risiken im Sicherheitskonzept zu verringern. „Die Straße ist kein Experimentierfeld, es geht um die Sicherheit im Verkehr und am Ende um Menschenleben“, so KBA-Präsident Richard Damm in Richtung Tesla und Musk. Im Januar 2022 hatte das KBA eine Prüfung angekündigt, bei der es darum geht, ob das Spurwechselsystem von Teslas Autopilot in Deutschland zulässig ist.
Bitte beachte unsere Community-Richtlinien
Wir freuen uns über kontroverse Diskussionen, die gerne auch mal hitzig geführt werden dürfen. Beleidigende, grob anstößige, rassistische und strafrechtlich relevante Äußerungen und Beiträge tolerieren wir nicht. Bitte achte darauf, dass du keine Texte veröffentlichst, für die du keine ausdrückliche Erlaubnis des Urhebers hast. Ebenfalls nicht erlaubt ist der Missbrauch der Webangebote unter t3n.de als Werbeplattform. Die Nennung von Produktnamen, Herstellern, Dienstleistern und Websites ist nur dann zulässig, wenn damit nicht vorrangig der Zweck der Werbung verfolgt wird. Wir behalten uns vor, Beiträge, die diese Regeln verletzen, zu löschen und Accounts zeitweilig oder auf Dauer zu sperren.
Trotz all dieser notwendigen Regeln: Diskutiere kontrovers, sage anderen deine Meinung, trage mit weiterführenden Informationen zum Wissensaustausch bei, aber bleibe dabei fair und respektiere die Meinung anderer. Wir wünschen Dir viel Spaß mit den Webangeboten von t3n und freuen uns auf spannende Beiträge.
Dein t3n-Team