Reportage

Selbstfahrende Autos: Wenn der Computer am Steuer sitzt

Seite 2 / 2

Tesla und Google: Der Crash macht unsicher

Für einen Aufschrei sorgte im Mai 2016 der erste tödliche Unfall mit einem gerade vom Computer gesteuerten Tesla im US-Staat Florida. Der Wagen war nicht komplett autonom, er fuhr im sogenannten Autopilot-Modus. Dabei handelt es sich um ein ausgeklügeltes Assistenzsystem, das vom Fahrer bewusst angeschaltet werden muss und dann unter anderem Spur und Abstand halten soll. Die US-Verkehrsbehörde NHTSA stellte in ihrem Untersuchungsbericht fest, das Assistenzsystem habe wie zugesichert funktioniert, der Fahrer hätte sich aber nicht auf die Technik verlassen dürfen.

Auch Roboter-Wagen geraten in Unfälle – meistens fahren unachtsame Menschen auf die korrekt fahrenden Testautos auf. Anfang 2016 jedoch provozierte ein Google-Auto selbst einen Blechschaden, als es beim Umfahren eines Hindernisses einem Bus in den Weg steuerte.

Aktuell sorgt noch fast jeder Zwischenfall für Schlagzeilen. Experten erwarten, dass diese Phase mit mehr Wagen und immer besserer Technik vergehen wird. 2016 jedoch fürchteten sich drei von vier Amerikanern davor, von einem selbstfahrenden Auto durch die Gegend chauffiert zu werden. Bei den Deutschen ist die Skepsis ähnlich groß.

Dabei war es ausgerechnet ein Deutscher, der die Roboter-Wagen-Welle entscheidend anschob: Sebastian Thrun war Professor für künstliche Intelligenz in Stanford und entwickelte den autonomen Wagen Stanley auf Basis eines VW Touareg. Später engagierte ihn Google, um für den Konzern den ersten Prototypen zu bauen.

Google startete 2009 Tests mit Roboter-Wagen auf der Straße und setzte mit dem Projekt auch etablierte Autokonzerne unter Zugzwang. Seit kurzem stellt die Google-Schwesterfirma Waymo Familien selbstfahrende Minivans für den Alltag zur Verfügung.

Auch die großen deutschen Autobauer forschen im Silicon Valley und sind mit Testlizenzen unterwegs. So will BMW 2021 gemeinsam mit Intel ein vollautonomes Auto auf die Straße bringen.

Der Mann für ethische Fragen im BMW-Konzern, Dirk Wisselmann, berichtet, dass man viel an Szenarien arbeite, wie sie der Philosoph Lin entwirft. Zugleich versichert er, dass ein Algorithmus – also eine Computerregel – mit Wertungen wie „Kind geht vor Großmutter“ niemals in ein deutsches Auto hinein programmiert werden dürfte. „Das verstößt gegen das Grundgesetz. Die Antwort kann immer nur lauten: Sachschaden vor Personenschaden.“

Weil allgemein davon ausgegangen wird, dass vollautonome Wagen oft langsam unterwegs sein werden, sieht Wisselmann keine große Gefahr für Fußgänger. „Bei 30 Kilometer pro Stunde in der Innenstadt ergibt sich ein Bremsweg von etwa 4 Metern. Bei dieser Geschwindigkeit bleiben etwa 50 Zentimeter, die ein Auto nach links oder rechts ausweichen könnte. Also, wie realistisch ist dann ein solch dramatisches Szenario noch?“

Nicht alles machen, was geht

Mirko Franke, Entwickler bei Bosch, sieht sich stärker in der Moral-Zwickmühle: „Technisch sind wir längst so weit, dass die Sensoren gut erkennen, was sich um das Auto herum tut. Eine etwa einen Meter große Person ist mit hoher Wahrscheinlichkeit ein Kind, jemand mit einem Stock wahrscheinlich ein älterer Mensch.“ Trotzdem soll das Auto solche Unterschiede nicht berücksichtigen. „Was ethisch ist und was nicht, ist eine gesellschaftliche Frage, das können wir nicht als Unternehmen festlegen“, betont Franke.

Die Deutschen sind gewohnt vorsichtig. US-Wettbewerber wie Tesla und Waymo wollen sich zum Thema Ethik erst gar nicht äußern. Und dann sind da noch die vielen Startups. So wie Peloton. Die Firma entwickelt führerlose Lastwagen für das sogenannte Platooning. Dabei sollen Fahrzeuge automatisch gesteuert in Kolonne fahren. Software-Entwicklerin Alison Chaiken sagt: „Ingenieure wollen coole Sachen bauen und kümmern sich nicht so sehr um die Konsequenzen.“

Ist ein Notfallknopf die Lösung?

Nach den ersten Kollisionen wird über Roboter-Autos zumindest schon diskutiert. Dabei ist oft vom roten Not-Knopf die Rede. Damit könnte der Mensch beim hochautomatisierten Fahren im Krisenfall die Kontrolle wieder übernehmen. Aber wie realistisch ist das? BMW hat es getestet: „Wir haben über 400 Fahrsimulationsversuche gemacht, wo wir Realfahrer – natürlich unter Laborbedingungen – mit solchen Situationen konfrontiert haben“, sagt Wisselmann.

„Man schickt den Fahrer dabei in die komplette Ablenkung, zum Beispiel liest er ein Buch, wenn plötzlich ein Warnton im Auto ertönt. Der Fahrer muss sich dann in kürzester Zeit orientieren und ein Manöver einleiten, also bremsen oder ausweichen“, so der deutsche Experte. „Die Ergebnisse waren erstaunlich, die Schnellsten brauchten in einfachen Situationen nur zwei bis drei Sekunden.“

Stanford-Professor Gerdes hält menschliches Eingreifen dagegen für keine gute Idee. „Die meisten Unfälle werden heute dadurch verursacht, dass wir Menschen falsch auf unvorhergesehene Situationen reagieren.“ Mit dem Notfallknopf bekomme man die Kontrolle zum schlechtestmöglichen Zeitpunkt. „Nein, das Auto sollte seine eigenen Entscheidungen treffen können oder zu einem sicheren Stand kommen.“ dpa

Auch spannend: „Selbstfahrende Autos: Warum du in 30 Jahren nicht mehr selbst fahren darfst

Bitte beachte unsere Community-Richtlinien

Wir freuen uns über kontroverse Diskussionen, die gerne auch mal hitzig geführt werden dürfen. Beleidigende, grob anstößige, rassistische und strafrechtlich relevante Äußerungen und Beiträge tolerieren wir nicht. Bitte achte darauf, dass du keine Texte veröffentlichst, für die du keine ausdrückliche Erlaubnis des Urhebers hast. Ebenfalls nicht erlaubt ist der Missbrauch der Webangebote unter t3n.de als Werbeplattform. Die Nennung von Produktnamen, Herstellern, Dienstleistern und Websites ist nur dann zulässig, wenn damit nicht vorrangig der Zweck der Werbung verfolgt wird. Wir behalten uns vor, Beiträge, die diese Regeln verletzen, zu löschen und Accounts zeitweilig oder auf Dauer zu sperren.

Trotz all dieser notwendigen Regeln: Diskutiere kontrovers, sage anderen deine Meinung, trage mit weiterführenden Informationen zum Wissensaustausch bei, aber bleibe dabei fair und respektiere die Meinung anderer. Wir wünschen Dir viel Spaß mit den Webangeboten von t3n und freuen uns auf spannende Beiträge.

Dein t3n-Team

Ein Kommentar
Gert Büttgenbach
Gert Büttgenbach

Das fahrerlose, vollständig autonom handelnde Auto wird eine Illusion bleiben, weil es eben nicht die ethischen Fragen stellvertretend für den Fahrzeughalter lösen kann. Die rechtlichen Probleme, die sich ergeben, sind immens und können, wenn überhaupt, nicht in so kurzen Zeiträumen, wie die Hersteller sich das wünschen, gelöst werden. Für mich ist erstaunlich, mit welcher Konsequenz in der aktuellen Diskussion die einzig denkbare Alternative ausgeblendet wird: Nur die Entflechtung der Verkehrsebenen – Fußgänger und Straßenverkehr – kann die Lösung sein. Die Kosten für den entschlossenen Umbau unserer Infrastruktur beim Namen zu nennen oder auch nur darüber offen nachzudenken, scheut natürlich jeder Politiker. Die scheinbar schnelle und kostengünstige Lösung, künstliche Intelligenz einusetzen, um Unfälle im heutigen, von allen Verkehrsteilnehmern geteilten Raum zu verhindern, wird uns eine Sackgasse führen (man denke nur an die latente Anarchie, die zwischen den Verkehrsträgern Fahrrad und Auto herrscht)

Antworten

Melde dich mit deinem t3n Account an oder fülle die unteren Felder aus.

Bitte schalte deinen Adblocker für t3n.de aus!

Hey du! Schön, dass du hier bist. 😊

Bitte schalte deinen Adblocker für t3n.de aus, um diesen Artikel zu lesen.

Wir sind ein unabhängiger Publisher mit einem Team bestehend aus 65 fantastischen Menschen, aber ohne riesigen Konzern im Rücken. Banner und ähnliche Werbemittel sind für unsere Finanzierung sehr wichtig.

Danke für deine Unterstützung.

Digitales High Five,
Stephan Dörner (Chefredakteur t3n.de) & das gesamte t3n-Team

Anleitung zur Deaktivierung