Unter Androhung einer Millionenstrafe: Tesla muss Autopilot-Daten offenlegen

Wie sicher ist der Autopilot? (Foto: Flystock / shutterstock)
Bis zum 22. Oktober lässt die National Highway Traffic Safety Administration (NHTSA), die Verkehrssicherheitsbehörde der Vereinigten Staaten von Amerika, Tesla Zeit. Bis dahin muss der Autobauer eine detaillierte Erläuterung dazu liefern, wie der sogenannte Autopilot funktioniert und vor allem, welche Vorkehrungen Tesla getroffen hat, damit es nicht zu Fehlfunktionen kommen kann.
NHTSA will wissen: Welche Sicherheitsmaßnahmen verhindern Fehlfunktionen?
So will die Behörde wissen, wie sichergestellt wird, dass Fahrer ihre Augen auf der Straße behalten, während der Autopilot aktiviert ist, und wo die Grenzen seines Einsatzes liegen. Die Behörde will dem Verdacht nachgehen, dass die von Tesla getroffenen Sicherheitsvorkehrungen möglicherweise nicht ausreichen. Nicht gut ankommen soll auch der Umstand, dass der Autopilot nur für die Nutzung auf Autobahnen zugelassen ist, Tesla aber keinerlei Vorkehrungen dagegen getroffen hat, dass ihn jemand auf sonstigen Straßen aktivieren kann.
Ebenso hat die NHTSA die Zahl der insgesamt in den USA verkauften Tesla angefordert. Die Behörde möchte alle Autopilot-bezogenen Schlichtungs- und Gerichtsverfahren sowie alle Beschwerden, die Tesla von Kunden über die Fahrerassistenztechnologie erhalten hat, in die Betrachtungen einbeziehen.
Für den Fall, dass Tesla die Frist verstreichen lassen sollte, hat die NHTSA dem Hersteller die Verhängung von Strafzahlungen in Höhe von bis zu 115 Millionen US-Dollar angedroht. Die neue Forderung der NHTSA zeigt, dass die im August angekündigte offizielle Untersuchung der bis zu diesem Zeitpunkt elf Unfälle mit Autopilot-Beteiligung voranschreitet. Am vergangenen Samstag hatte sich dann ein zwölfter Vorfall ereignet.
Teslas Autopilot bislang an 12 Unfällen beteiligt
Bei den seit Januar 2018 aufgetretenen Unfällen waren Teslas mit offenbar eingeschaltetem Autopilot auf Einsatzfahrzeuge von Feuerwehr oder Polizei aufgefahren. Und das, obwohl diese – zum Beispiel an einer Unfallstelle – mit verschiedenen Warnlichtern auf sich aufmerksam gemacht hätten. Bei den untersuchten Unfällen hatte es insgesamt 17 Verletzte gegeben. Eine Person war ums Leben gekommen.
Tesla hatte vor einigen Monaten proaktiv auf die Vorfälle reagiert und in den Model 3 und Y schließlich die Kamera über dem Rückspiegel aktiviert. So soll die Software in Zeiten, in denen der Autopilot aktiviert ist, „Unaufmerksamkeit des Fahrers erkennen und melden“.
12 Unfälle mit einem Level 2 Fahrzeug. Da sind die deutschen Hersteller weiter…
…von denen es mindestens 10x Fahrer traf, bei denen „DUI“ – Driving Under Influence (aka. alkoholisiert oder andere Drogen haben den Fahrer fahruntauglich gemacht) nachgewiesen wurden. In einem Fall hatte der Fahrer über 2 Promille. Und nein, er fuhr NICHT mit Autopilot
Aber hey – hinter der „Offenlegung“ sind bestimmt einige andere Interessenten, die sich genau das, was Tesla da veröffentlichen soll, gern kopieren möchten. Einfach, weil schlecht kopiert leichter ist, als es selbst auszuprobieren und zu bauen.