Haftungslücke bei autonom agierender KI: Wer zahlt für die Fehler der Maschine?
Wann immer bei Konferenzen und Kongressen in den zurückliegenden Jahren „autonomes Fahren“ und Ethik zum Thema wurde, war fast immer das gleiche Beispiel zur Hand: Nach welchen Kriterien entscheidet die zugrunde liegende KI in einer Unfallsituation, wer gefährdet oder gar überfahren werden soll? Die Ethikkommission hat in ihrem Gutachten schon 2017 gefordert, dass „jede Qualifizierung nach persönlichen Merkmalen (wie Alter oder Geschlecht)“ strikt untersagt sein soll.
In einem lesenswerten Meinungsbeitrag für die Welt kommen die beiden Forscher Bruno S. Frey und Lasse Steiner zu dem Resultat, dass – ähnlich wie bei der Besetzung von politischen Ämtern im antiken Athen – doch lieber der Zufall entscheiden soll. Irgendwie klingt das ja schon absurd: Wir programmieren und trainieren künstliche Intelligenz, um nichts dem Zufall zu überlassen, und überlassen ethische Entscheidungen dann doch dem Zufall?! Wie auch immer man dazu steht, die Frage nach Moral, Verantwortung und Haftung ist mehr als berechtigt und treibt Anbieter wie Anwender, nicht zuletzt auch die Politik und mehr und mehr die Gerichtsbarkeit um.
Noch – so scheint es – ist die menschliche Intelligenz zumindest in Dialogen der künstlichen Intelligenz überlegen. Das hat nicht nur der Kunde der Air Canada belegt, der dem Chatbot eine Erstattung abgerungen hat, die nach den Richtlinien der Airline so nicht zulässig war. Spannend an diesem Beispiel ist aber vor allem, dass die Fluggesellschaft die Verantwortung für die fehlerhafte Erstattung vor Gericht auf den Chatbot abwälzen wollte.
Das deutsche Haftungssystem, das auf individuellem Fehlverhalten und einem klaren Schaden basiert, stößt hier an seine Grenzen. Die Haftung von Menschen hinter der KI und die potenzielle Haftungslücke bei autonom agierenden KI-Systemen sind juristisch komplexe Fragen. Auch der AI Act, der jüngst auf EU-Ebene verabschiedet wurde, bringt vorerst noch keine Klarheit.
Haftungsfrage bleibt vorläufig unklar
Zwar herrscht Einigkeit, welche KI-Systeme künftig verboten sind, aber schon bei KI-Systemen mit hohem Risiko wird es undurchsichtiger. Zwar werden Anbieter entsprechender Systeme in die Pflicht genommen, was aber bei der Kombination mehrerer Systeme oder der Integration der KI-Systeme in haftungsrelevante Prozesse geschieht, das dürfte die Gerichte schon in wenigen Monaten verstärkt beschäftigen, denn der AI Act hat einen durchaus ambitionierten Umsetzungsfahrplan.
Eine zentrale Rolle nimmt dabei das AI Office der EU ein. Es soll unter anderem für Rechtssicherheit in den 27 Mitgliedsstaaten der EU sorgen. Das Problem dabei ist nur, dass das AI Office diese Arbeit noch nicht aufgenommen hat und auch noch nicht wirklich klar ist, wie es personell besetzt sein soll.
Nahezu parallel dazu hat die EU die Produkthaftungsrichtlinie auf Softwarelösungen ausgeweitet. Diese betrifft künftig auch Betriebssysteme, Firmware, Computerprogramme, Anwendungen oder eben KI-Systeme – ganz gleich, ob sie lokal installiert sind oder über die Cloud zur Verfügung gestellt werden.
Die Richtlinie und das ProdHaftG als deren deutsche Umsetzung nehmen Hersteller für ihre Softwareprodukte in die Pflicht. Hersteller ist demzufolge nicht mehr nur, wer ein Produkt, einen Grundstoff oder ein Teilprodukt hergestellt hat, sondern wer ein Produkt entwickelt, herstellt oder produziert. Als Hersteller gilt ebenso, wer ein Produkt entwickeln oder herstellen lässt oder es unter eigenem Namen oder eigener Marke vertreibt.
Fakt ist, dass die EU-Richtlinien einfachere Schadensersatzansprüche zum Ziel haben.
Offen bleibt dabei, ob diese dann an die Entwickler oder die Betreiber der KI-Anwendungen gestellt werden sollen. Die Umsetzungsfrist beträgt zwei Jahre. Mehr muss man an dieser Stelle eigentlich gar nicht wissen, um abzuschätzen, welche Dramen sich in der Zwischenzeit abspielen werden. Bei Gerichtsverfahren wollen die Abgeordneten die Beweislast vereinfachen. Geschädigte sollen die Herausgabe von Unterlagen verlangen können, die ihnen zur Durchsetzung der Schadenersatzansprüche helfen können. Dabei handelt es sich beispielsweise um die Herausgabe von Trainingsdaten für Algorithmen, Nutzerprotokolle oder Informationen zum Qualitätsmanagement.
Bildergalerie: Googles neue KI-Suche geht nach hinten los
Minenfeld für KI-Entwickler
Für Softwarehersteller und KI-Anwendungsentwickler entsteht so ein echtes Minenfeld aus möglichen Haftungsfällen. Und dazu müssen wir das autonome Fahren erst gar nicht bemühen. Was, wenn eine KI Muster halluziniert, die nicht existieren? Beispielsweise, wenn ein medizinisches Diagnoseprogramm eine Krankheit erkennt, die gar nicht da ist. Wer haftet für die physischen und psychischen Schäden, die durch diese „Träume“ der Maschine entstehen? Was, wenn die Kreditwürdigkeit von einem Algorithmus bestimmt wird, der den Menschen dahinter nicht versteht?
Wenn eine KI-basierte Schufa-Auskunft falsche Daten interpretiert und dadurch den Kredit verwehrt, sind die Folgen real und manchmal verheerend. Europäische Regulierungen fordern Transparenz und Fairness, aber wie setzt man das bei einer Blackbox-KI durch? Die Antwort darauf ist noch offen, aber der Druck auf Softwarehersteller wächst, ihre Algorithmen offenzulegen und für ihre Entscheidungen Verantwortung zu übernehmen.
Die Haftungsfragen rund um KI sind und bleiben komplex. Während Europa bemüht ist, einen rechtlichen Rahmen zu schaffen, der Innovation fördert und gleichzeitig Verbraucher schützt, bleibt offenbar noch viel zu tun. Softwarehersteller, Regulierungsbehörden und Nutzer müssen gemeinsam an Lösungen arbeiten, um die Chancen der KI zu nutzen, ohne dabei die Risiken zu übersehen.
Bis dahin bleibt uns nur, wachsam zu sein und gelegentlich über die Skurrilitäten dieser Tage zu schmunzeln. Und dazu gehört auch, dass Apple Intelligence in der EU erst einmal nicht zur Verfügung stehen soll, da die europäischen Gesetze (konkret der Digital Markets Act) laut Apple Anforderungen stellen, die die Datensicherheit und den Datenschutz der Apple-Nutzer gefährden könnten. Na dann …