News

Artikel merken

Autopilot und mehr: Niederlande hacken Teslas Kryptospeicher

Ein staatliches forensisches Labor der Niederlande erklärt, den Speicher mit den verschlüsselt gespeicherten Fahrdaten aller gängigen Tesla-Modelle geknackt zu haben. Das erleichtere die Wahrheitssuche nach einem Unfall.

2 Min. Lesezeit
Teslas speichern eine Fülle von Fahrdaten - auch zu Unfällen. (Bild: canadianPhotographer56 / Shutterstock.com)

Das Niederländische Institut für Forensik (NFI) behauptet, Zugriff auf eine Fülle von Informationen zu Teslas Autopilot, gepaart mit Daten zu Geschwindigkeiten, Gaspedalstellungen, Lenkradwinkel und mehr erhalten zu haben. Per Reverse Engineering soll es ihnen gelungen sein, die Verschlüsselung des Datenspeichers der Modelle S, Y, X und 3 zu knacken, der auf einer zugänglichen SD-Karte im Fahrzeug liege.

Per Reverse Engineering knackt das Labor Teslas Verschlüsselung

Ihre Erkenntnisse haben die Wissenschaftlerinnen und Wissenschaftler anlässlich einer Konferenz der Europäischen Vereinigung für Unfallforschung und Unfallanalyse im israelischen Haifa veröffentlicht.

Die Erkenntnisse sollen nun genutzt werden, um es Regierungen zu ermöglichen, „gezieltere Daten anzufordern“, um die Ursache von Unfällen zu ermitteln, so die Forscher. Nach eigenen Angaben wussten die Forschenden schon vor ihrem Reverse-Engineering-Angriff, dass Tesla-Fahrzeuge unfallbezogene Daten verschlüsseln und speichern. Sie wussten lediglich nicht, welche Daten und wie viele.

Offizielle Auskunft Teslas stark beschränkt

Immerhin erlaubt Tesla bereits seit 2018 die Abfrage von Daten aus dem sogenannten „Event Data Recorder“ (EDR), einer Art Blackbox, die „Ereignisse“ speichert. Die Daten, die Tesla auf Anforderung herausgibt, umfassen die letzten fünf Sekunden vor einem Ereignis, etwa einem Unfall. Die Forschenden aus den Niederlanden schlossen daraus, dass der EDR kontinuierlich Daten sammeln musste und vermuteten, dass er auch sehr viel mehr Signale erfassen würde als die kurzen 5-Sekunden-Ausschnitte erfordern würden.

Fast fertig!

Bitte klicke auf den Link in der Bestätigungsmail, um deine Anmeldung abzuschließen.

Du willst noch weitere Infos zum Newsletter? Jetzt mehr erfahren

Sie sollten Recht behalten. Nachdem es ihnen gelungen war, die Verschlüsselung zu knacken, führten sie reale Tests mit einem Model 3 durch, um zu schauen, wie sich die aufgezeichneten Protokolle zu den realen Daten verhalten würden. Dabei konnten sie nachweisen, dass die Fahrzeugprotokolle „sehr genau“ waren – mit Abweichungen von weniger als einem Kilometer pro Stunde.

Genaue Unfallanalyse möglich – Messtoleranzen überaus gering

Mit der Sicherheit, einen Weg gefunden zu haben, die Daten verlässlich zu entschlüsseln, nahm sich das NFI-Team mehrere Unfälle vor. In einem Fall war ein Tesla mit Autopilot mit einem vorausfahrenden Auto kollidiert, das plötzlich gebremst hatte. Hier ist der Fahrer gefordert, der dann, wenn der Autopilot nicht rechtzeitig bremst, übernehmen muss.

„In diesem Fall hat die Untersuchung gezeigt, dass der Fahrer tatsächlich eingegriffen hat, und zwar innerhalb der erwarteten Reaktionszeit“, so der Forscher Aart Spek vom NFI. „Die Tatsache, dass es zu einer Kollision kam, lag daran, dass der [vom Autopilot gewählte] Folgeabstand in dem dichten Verkehr zu gering war. Das eröffnet die interessante Frage, wer für den Folgeabstand verantwortlich ist – das Auto oder der Fahrer?“

Mit den nun zugänglichen Daten werde künftig eine detailliertere Unfalluntersuchung „insbesondere im Hinblick auf die Rolle von Fahrerassistenzsystemen“ möglich. Jetzt wollen sich die Forschenden mit der Frage befassen, ob und in welchem Umfang auch andere Hersteller ähnliche Daten speichern. Das diene „letztlich dem Interesse, nach einem Unfall die Wahrheit zu finden.“

Das könnte dich auch interessieren

Bitte beachte unsere Community-Richtlinien

Wir freuen uns über kontroverse Diskussionen, die gerne auch mal hitzig geführt werden dürfen. Beleidigende, grob anstößige, rassistische und strafrechtlich relevante Äußerungen und Beiträge tolerieren wir nicht. Bitte achte darauf, dass du keine Texte veröffentlichst, für die du keine ausdrückliche Erlaubnis des Urhebers hast. Ebenfalls nicht erlaubt ist der Missbrauch der Webangebote unter t3n.de als Werbeplattform. Die Nennung von Produktnamen, Herstellern, Dienstleistern und Websites ist nur dann zulässig, wenn damit nicht vorrangig der Zweck der Werbung verfolgt wird. Wir behalten uns vor, Beiträge, die diese Regeln verletzen, zu löschen und Accounts zeitweilig oder auf Dauer zu sperren.

Trotz all dieser notwendigen Regeln: Diskutiere kontrovers, sage anderen deine Meinung, trage mit weiterführenden Informationen zum Wissensaustausch bei, aber bleibe dabei fair und respektiere die Meinung anderer. Wir wünschen Dir viel Spaß mit den Webangeboten von t3n und freuen uns auf spannende Beiträge.

Dein t3n-Team

Ein Kommentar
Hans
Hans

Für den Abstand ist immer der Fahrer Schuld! Die Distanz zum vorderen kann selber eingestellt werden!

Antworten

Melde dich mit deinem t3n Account an oder fülle die unteren Felder aus.

Bitte schalte deinen Adblocker für t3n.de aus!

Hallo und herzlich willkommen bei t3n!

Bitte schalte deinen Adblocker für t3n.de aus, um diesen Artikel zu lesen.

Wir sind ein unabhängiger Publisher mit einem Team von mehr als 75 fantastischen Menschen, aber ohne riesigen Konzern im Rücken. Banner und ähnliche Werbemittel sind für unsere Finanzierung sehr wichtig.

Schon jetzt und im Namen der gesamten t3n-Crew: vielen Dank für deine Unterstützung! 🙌

Digitales High Five
Holger Schellkopf (Chefredakteur t3n)

Anleitung zur Deaktivierung

Artikel merken

Bitte melde dich an, um diesen Artikel in deiner persönlichen Merkliste auf t3n zu speichern.

Jetzt registrieren und merken

Du hast schon einen t3n-Account? Hier anmelden

oder