Wieder Ärger mit FSD: Autonom fahrender Tesla überschlägt sich ohne Vorwarnung – trotz neuester Technik

Ein Vorfall aus dem US-Bundesstaat Alabama, bei dem sich ein Tesla Model 3 mit aktiviertem „Full Self-Driving“ (FSD) überschlagen hat, sorgt derzeit für Aufsehen. Wie Electrek schildert, kam das Fahrzeug ohne ersichtlichen Grund von der Fahrbahn ab, kollidierte mit einem Zaun und landete auf dem Dach. Der Fahrer “Wally” kam mit leichten Verletzungen davon.
„Ich war auf dem Weg zur Arbeit und hatte Full Self-Driving an“, zitiert ihn Electrek. „Das Lenkrad begann sich plötzlich schnell zu drehen, der Wagen fuhr in den Graben, streifte einen Baum und überschlug sich. Ich hatte keine Zeit zu reagieren.“
Das wäre sehr beunruhigend: Schatten als Unfallursache?
Der Tesla war mit der neuesten Hardware 4 und einer aktuellen FSD-Softwareversion (v13.2.8) ausgestattet. Eine offizielle Unfallursache steht noch aus, doch in der Community wird eine brisante Theorie diskutiert. In einem viel beachteten Thread auf Reddit spekulieren Nutzer:innen, dass das System die Schatten von Bäumen auf der Fahrbahn fälschlicherweise als Hindernis interpretiert und ein abruptes Ausweichmanöver eingeleitet haben könnte.
Pikant ist dabei die Verbindung zur verbauten Technik. So hatten wir bei t3n bereits im vergangenen Jahr über verschiedene Probleme und eine erhöhte Fehlerrate bei der Hardware 4 berichtet. Ob ein Zusammenhang zum aktuellen Crash besteht, ist unklar, wirft aber weitere Fragen zur Zuverlässigkeit der Plattform auf.
Kein Einzelfall: Teslas umstrittene Autopilot-Software
Der Vorfall ist der jüngste in einer langen Reihe von Zwischenfällen, die Zweifel an der Sicherheit von Teslas Fahrerassistenzsystemen aufkommen lassen. Laut einem Bericht des Manager Magazins war der Autopilot bis Mitte 2023 allein in den USA in über 700 Unfälle mit 17 Todesfällen verwickelt. Auch in Deutschland steht die Technologie in der Kritik; das Kraftfahrt-Bundesamt (KBA) aus Flensburg leitete bereits Untersuchungen wegen des Problems der sogenannten Phantombremsungen ein.
Der E-Autobauer Tesla aus dem texanischen Austin verweist hingegen in seinem offiziellen Fahrzeugsicherheitsbericht regelmäßig auf eine signifikant niedrigere Unfallrate bei Fahrten mit aktiviertem Autopiloten im Vergleich zu Fahrten ohne Assistenz. Kritiker:innen bemängeln jedoch die Methodik dieser Datenerhebung und die irreführende Bezeichnung „Full Self-Driving“, die eine nicht vorhandene Autonomie suggeriert.
Der aktuelle Crash unterstreicht die gravierende Diskrepanz zwischen Marketing-Versprechen und der technologischen Realität. Er zeigt, dass selbst die neuesten Systeme noch immer an alltäglichen Phänomenen wie einem Schattenwurf scheitern können. Für Fahrer:innen bleibt die bittere Erkenntnis, dass sie sich nicht auf die Technik verlassen können, aber im entscheidenden Moment möglicherweise nicht einmal die Chance haben, einzugreifen.