Anzeige
Anzeige
Kolumne

Haftungslücke bei autonom agierender KI: Wer zahlt für die Fehler der Maschine?

Wer haftet, wenn Schäden durch eine KI verursacht werden? Noch gibt es darauf keine klare Antwort. Das muss sich dringend ändern, findet unser KI-Kolumnist Saim Rolf Alkan.

Von Saim Rolf Alkan
4 Min.
Artikel merken
Anzeige
Anzeige
Wer haftet, wenn durch KI ein Schaden entsteht? (Bild: Midjourney / t3n)

Wann immer bei Konferenzen und Kongressen in den zurückliegenden Jahren „autonomes Fahren“ und Ethik zum Thema wurde, war fast immer das gleiche Beispiel zur Hand: Nach welchen Kriterien entscheidet die zugrunde liegende KI in einer Unfallsituation, wer gefährdet oder gar überfahren werden soll? Die Ethikkommission hat in ihrem Gutachten schon 2017 gefordert, dass „jede Qualifizierung nach persönlichen Merkmalen (wie Alter oder Geschlecht)“ strikt untersagt sein soll.

Anzeige
Anzeige

In einem lesenswerten Meinungsbeitrag für die Welt kommen die beiden Forscher Bruno S. Frey und Lasse Steiner zu dem Resultat, dass – ähnlich wie bei der Besetzung von politischen Ämtern im antiken Athen – doch lieber der Zufall entscheiden soll. Irgendwie klingt das ja schon absurd: Wir programmieren und trainieren künstliche Intelligenz, um nichts dem Zufall zu überlassen, und überlassen ethische Entscheidungen dann doch dem Zufall?! Wie auch immer man dazu steht, die Frage nach Moral, Verantwortung und Haftung ist mehr als berechtigt und treibt Anbieter wie Anwender, nicht zuletzt auch die Politik und mehr und mehr die Gerichtsbarkeit um.

Noch – so scheint es – ist die menschliche Intelligenz zumindest in Dialogen der künstlichen Intelligenz überlegen. Das hat nicht nur der Kunde der Air Canada belegt, der dem Chatbot eine Erstattung abgerungen hat, die nach den Richtlinien der Airline so nicht zulässig war. Spannend an diesem Beispiel ist aber vor allem, dass die Fluggesellschaft die Verantwortung für die fehlerhafte Erstattung vor Gericht auf den Chatbot abwälzen wollte.

Anzeige
Anzeige

Das deutsche Haftungssystem, das auf individuellem Fehlverhalten und einem klaren Schaden basiert, stößt hier an seine Grenzen. Die Haftung von Menschen hinter der KI und die potenzielle Haftungslücke bei autonom agierenden KI-Systemen sind juristisch komplexe Fragen. Auch der AI Act, der jüngst auf EU-Ebene verabschiedet wurde, bringt vorerst noch keine Klarheit.

Haftungsfrage bleibt vorläufig unklar

Zwar herrscht Einigkeit, welche KI-Systeme künftig verboten sind, aber schon bei KI-Systemen mit hohem Risiko wird es undurchsichtiger. Zwar werden Anbieter entsprechender Systeme in die Pflicht genommen, was aber bei der Kombination mehrerer Systeme oder der Integration der KI-Systeme in haftungsrelevante Prozesse geschieht, das dürfte die Gerichte schon in wenigen Monaten verstärkt beschäftigen, denn der AI Act hat einen durchaus ambitionierten Umsetzungsfahrplan.

Anzeige
Anzeige

Eine zentrale Rolle nimmt dabei das AI Office der EU ein. Es soll unter anderem für Rechtssicherheit in den 27 Mitgliedsstaaten der EU sorgen. Das Problem dabei ist nur, dass das AI Office diese Arbeit noch nicht aufgenommen hat und auch noch nicht wirklich klar ist, wie es personell besetzt sein soll.

Nahezu parallel dazu hat die EU die Produkthaftungsrichtlinie auf Softwarelösungen ausgeweitet. Diese betrifft künftig auch Betriebssysteme, Firmware, Computerprogramme, Anwendungen oder eben KI-Systeme – ganz gleich, ob sie lokal installiert sind oder über die Cloud zur Verfügung gestellt werden.

Anzeige
Anzeige

Die Richtlinie und das ProdHaftG als deren deutsche Umsetzung nehmen Hersteller für ihre Softwareprodukte in die Pflicht. Hersteller ist demzufolge nicht mehr nur, wer ein Produkt, einen Grundstoff oder ein Teilprodukt hergestellt hat, sondern wer ein Produkt entwickelt, herstellt oder produziert. Als Hersteller gilt ebenso, wer ein Produkt entwickeln oder herstellen lässt oder es unter eigenem Namen oder eigener Marke vertreibt.
Fakt ist, dass die EU-Richtlinien einfachere Schadensersatzansprüche zum Ziel haben.

Offen bleibt dabei, ob diese dann an die Entwickler oder die Betreiber der KI-Anwendungen gestellt werden sollen. Die Umsetzungsfrist beträgt zwei Jahre. Mehr muss man an dieser Stelle eigentlich gar nicht wissen, um abzuschätzen, welche Dramen sich in der Zwischenzeit abspielen werden. Bei Gerichtsverfahren wollen die Abgeordneten die Beweislast vereinfachen. Geschädigte sollen die Herausgabe von Unterlagen verlangen können, die ihnen zur Durchsetzung der Schadenersatzansprüche helfen können. Dabei handelt es sich beispielsweise um die Herausgabe von Trainingsdaten für Algorithmen, Nutzerprotokolle oder Informationen zum Qualitätsmanagement.

Bildergalerie: Googles neue KI-Suche geht nach hinten los

Googles neue KI-Suche geht nach hinten los Quelle: (Bild: Koshiro K/Shutterstock)

Minenfeld für KI-Entwickler

Für Softwarehersteller und KI-Anwendungsentwickler entsteht so ein echtes Minenfeld aus möglichen Haftungsfällen. Und dazu müssen wir das autonome Fahren erst gar nicht bemühen. Was, wenn eine KI Muster halluziniert, die nicht existieren? Beispielsweise, wenn ein medizinisches Diagnoseprogramm eine Krankheit erkennt, die gar nicht da ist. Wer haftet für die physischen und psychischen Schäden, die durch diese „Träume“ der Maschine entstehen? Was, wenn die Kreditwürdigkeit von einem Algorithmus bestimmt wird, der den Menschen dahinter nicht versteht?

Anzeige
Anzeige

Wenn eine KI-basierte Schufa-Auskunft falsche Daten interpretiert und dadurch den Kredit verwehrt, sind die Folgen real und manchmal verheerend. Europäische Regulierungen fordern Transparenz und Fairness, aber wie setzt man das bei einer Blackbox-KI durch? Die Antwort darauf ist noch offen, aber der Druck auf Softwarehersteller wächst, ihre Algorithmen offenzulegen und für ihre Entscheidungen Verantwortung zu übernehmen.

Die Haftungsfragen rund um KI sind und bleiben komplex. Während Europa bemüht ist, einen rechtlichen Rahmen zu schaffen, der Innovation fördert und gleichzeitig Verbraucher schützt, bleibt offenbar noch viel zu tun. Softwarehersteller, Regulierungsbehörden und Nutzer müssen gemeinsam an Lösungen arbeiten, um die Chancen der KI zu nutzen, ohne dabei die Risiken zu übersehen.

Bis dahin bleibt uns nur, wachsam zu sein und gelegentlich über die Skurrilitäten dieser Tage zu schmunzeln. Und dazu gehört auch, dass Apple Intelligence in der EU erst einmal nicht zur Verfügung stehen soll, da die europäischen Gesetze (konkret der Digital Markets Act) laut Apple Anforderungen stellen, die die Datensicherheit und den Datenschutz der Apple-Nutzer gefährden könnten. Na dann …

Fast fertig!

Bitte klicke auf den Link in der Bestätigungsmail, um deine Anmeldung abzuschließen.

Du willst noch weitere Infos zum Newsletter? Jetzt mehr erfahren

Anzeige
Anzeige
Kommentare

Community-Richtlinien

Bitte schalte deinen Adblocker für t3n.de aus!
Hallo und herzlich willkommen bei t3n!

Bitte schalte deinen Adblocker für t3n.de aus, um diesen Artikel zu lesen.

Wir sind ein unabhängiger Publisher mit einem Team von mehr als 75 fantastischen Menschen, aber ohne riesigen Konzern im Rücken. Banner und ähnliche Werbemittel sind für unsere Finanzierung sehr wichtig.

Schon jetzt und im Namen der gesamten t3n-Crew: vielen Dank für deine Unterstützung! 🙌

Deine t3n-Crew

Anleitung zur Deaktivierung
Artikel merken

Bitte melde dich an, um diesen Artikel in deiner persönlichen Merkliste auf t3n zu speichern.

Jetzt registrieren und merken

Du hast schon einen t3n-Account? Hier anmelden

oder
Auf Mastodon teilen

Gib die URL deiner Mastodon-Instanz ein, um den Artikel zu teilen.

Community-Richtlinien

Wir freuen uns über kontroverse Diskussionen, die gerne auch mal hitzig geführt werden dürfen. Beleidigende, grob anstößige, rassistische und strafrechtlich relevante Äußerungen und Beiträge tolerieren wir nicht. Bitte achte darauf, dass du keine Texte veröffentlichst, für die du keine ausdrückliche Erlaubnis des Urhebers hast. Ebenfalls nicht erlaubt ist der Missbrauch der Webangebote unter t3n.de als Werbeplattform. Die Nennung von Produktnamen, Herstellern, Dienstleistern und Websites ist nur dann zulässig, wenn damit nicht vorrangig der Zweck der Werbung verfolgt wird. Wir behalten uns vor, Beiträge, die diese Regeln verletzen, zu löschen und Accounts zeitweilig oder auf Dauer zu sperren.

Trotz all dieser notwendigen Regeln: Diskutiere kontrovers, sage anderen deine Meinung, trage mit weiterführenden Informationen zum Wissensaustausch bei, aber bleibe dabei fair und respektiere die Meinung anderer. Wir wünschen Dir viel Spaß mit den Webangeboten von t3n und freuen uns auf spannende Beiträge.

Dein t3n-Team

Kommentar abgeben

Melde dich an, um Kommentare schreiben und mit anderen Leser:innen und unseren Autor:innen diskutieren zu können.

Anmelden und kommentieren

Du hast noch keinen t3n-Account? Hier registrieren

Anzeige
Anzeige