Tesla: Anwälte behaupten, Musk-Aussagen über Autopilot könnten Deepfakes sein

Verzweiflung oder ein schlechter Witz? Die Anwälte von Tesla haben behauptet, die Aussagen von Konzernchef Elon Musk über die Sicherheit des Assistenzsystems Full Selfdriving könnten Deepfakes sein. Damit wollten sie verhindern, dass er vor Gericht aussagen muss. Das berichtete Reuters. Sie ernteten eine Abfuhr.
In dem Gerichtsprozess geht es um den Tod von Walter Huang. Der Apple-Ingenieur kam bei einem Autounfall ums Leben, bei dem die teilautonome Fahrsoftware versagt haben soll.
Seine Familie argumentiert, Huang habe den Versicherungen des Konzernchefs geglaubt. Elon Musk hatte 2016 behauptet: „Ein Model S und Model X können zum jetzigen Zeitpunkt mit größerer Sicherheit autonom fahren als ein Mensch. Right now.“ Autonomie auf Autobahnen sei auch mit Hindernissen „wirklich einfach“. Jahre später revidierte er diese Aussagen.
Die Familie will Musk zu den Bemerkungen vorladen, die Gegenseite wehrt sich. Die Anwälte des Autoherstellers lehnten den Antrag mit der Begründung ab, der CEO könne sich nicht an Details zu Aussagen erinnern. Außerdem sei er „Gegenstand vieler Deepfake-Videos und ‑Audioaufnahmen, die angeblich zeigen, wie er Dinge sagt und tut, die er in Wirklichkeit nie gesagt oder getan hat.“
Richterin Evette Pennypacker entgegnete: „Ihre Position ist, dass, weil Herr Musk berühmt ist und ein größeres Ziel für Deepfakes sein könnte, seine öffentlichen Äußerungen immun sind.“ Mit dieser Argumentation könne sich ja jede:r Prominente aus der Verantwortung stehlen. Sie ordnete eine dreistündige Befragung an. Teslas Gegenargumente seien „zutiefst beunruhigend“.
Neben den kühnen Versprechungen des Konzernchefs führen die Kläger:innen ins Feld, dass Musk wissentlich ein Video habe anfertigen lassen, indem es fälschlicherweise heißt: „Das Auto fährt selbst.“ Das Video zeige Funktionen, die zu diesem Zeitpunkt noch gar nicht existierten, so die Kläger:innen. Aussagen von Tesla-Ingenieuren bestätigen, dass Szenen gefälscht waren. Musk soll sie persönlich überwacht haben. Das FSD-System fährt autonom nach Level 2 und befindet sich weiterhin in einem Beta-Status.
Die Klage wird am 31. Juli verhandelt. Letzte Woche hat ein Geschworenengericht in Kalifornien den ersten Prozess, bei dem ein Autounfall mit einem beteiligten Full-Selfdrive-System, beendet. Es kam zu dem Schluss, dass das Assistenzsystem nicht versagt habe.
Bitte beachte unsere Community-Richtlinien
Wir freuen uns über kontroverse Diskussionen, die gerne auch mal hitzig geführt werden dürfen. Beleidigende, grob anstößige, rassistische und strafrechtlich relevante Äußerungen und Beiträge tolerieren wir nicht. Bitte achte darauf, dass du keine Texte veröffentlichst, für die du keine ausdrückliche Erlaubnis des Urhebers hast. Ebenfalls nicht erlaubt ist der Missbrauch der Webangebote unter t3n.de als Werbeplattform. Die Nennung von Produktnamen, Herstellern, Dienstleistern und Websites ist nur dann zulässig, wenn damit nicht vorrangig der Zweck der Werbung verfolgt wird. Wir behalten uns vor, Beiträge, die diese Regeln verletzen, zu löschen und Accounts zeitweilig oder auf Dauer zu sperren.
Trotz all dieser notwendigen Regeln: Diskutiere kontrovers, sage anderen deine Meinung, trage mit weiterführenden Informationen zum Wissensaustausch bei, aber bleibe dabei fair und respektiere die Meinung anderer. Wir wünschen Dir viel Spaß mit den Webangeboten von t3n und freuen uns auf spannende Beiträge.
Dein t3n-Team