ChatGPT-Fail: Anwalt setzt auf KI-Support und blamiert sich mächtig

ChatGPT blamiert Anwalt vor Gericht. (Foto: Andrey_Popov/Shutterstock)
Im Februar 2023 hatte ein Richter sich bei der Erstellung seiner Urteilsbegründung von ChatGPT beraten lassen. Das hatte weltweit für Aufsehen gesorgt, schließlich warnt selbst die Entwicklerfirma des KI-Chatbots, OpenAI, davor, dass ChatGPT Fehler machen könne.
Als Unterstützung für Anwält:innen kommt KI, darunter auch ChatGPT, aber schon länger zum Einsatz – unter anderem für die New Yorker Firma Donotpay. Deren KI-Roboteranwalt trat allerdings nach Klagen und Drohungen doch nicht wie angekündigt vor Gericht an.
Während Google-CEO Sundar Pichai in ChatGPT oder der konzerneigenen Konkurrenz Bard eine nützliche Unterstützung für Routinearbeiten in Kanzleien sieht, zeigt ein aktueller Fall zugleich die Gefahr von KI-Chatbots auf.
Ein Anwalt, der seinen Mandanten vor dem Bezirksgericht in Manhattan bei einer Klage gegen eine Fluggesellschaft vertrat, blamierte sich mächtig, als er die Hilfe von ChatGPT in Anspruch nahm.
Konkret geht es um einen Fall, bei dem ein Mann eine Airline auf Schmerzensgeld verklagt, weil er auf einem Flug von einem Servierwagen angefahren sein soll.
Der Anwalt des Mannes an sich ist wenig spektakulär. Dass der Fall trotzdem weltweit für Schlagzeilen sorgt, liegt an der Halluzination von ChatGPT.
Denn der KI-Chatbot hatte für den Anwalt eine Reihe von Präzedenzfällen „recherchiert“, die es gar nicht gibt. Die Anwält:innen der Fluglinie versuchten vergeblich, die entsprechenden Fallakten zu finden.
Das hätte eigentlich leicht möglich sein müssen, weil die Fälle sogar mit entsprechenden Aktenzeichen aufgeführt wurden. Auf Nachfrage lieferte der Anwalt sogar mehrseitige Auszüge aus den Akten, wie die New York Times berichtet.
Das Problem: Weder die Akten noch die Aktenzeichen oder die Inhalte existieren. ChatGPT hatte sich das Ganze – auf entsprechende Anfragen des Klägeranwalts hin – ausgedacht.
Dabei waren dem Anwalt des Klägers die Rechercheergebnisse von ChatGPT selbst etwas seltsam vorgekommen. Als der KI-Chatbot ihm aber versichert habe, dass alles korrekt sei, habe er von eigenen Nachforschungen abgesehen.
Ein Fehler, wie der Mann jetzt laut Golem zugab. ChatGPT habe sich „als unzuverlässig erwiesen“, so der Anwalt. Das Ganze sollte der Branche als Warnung dienen, sich bei ihren Recherchen zu Rechten oder Präzedenzfällen auf ChatGPT zu verlassen.
Bitte beachte unsere Community-Richtlinien
Wir freuen uns über kontroverse Diskussionen, die gerne auch mal hitzig geführt werden dürfen. Beleidigende, grob anstößige, rassistische und strafrechtlich relevante Äußerungen und Beiträge tolerieren wir nicht. Bitte achte darauf, dass du keine Texte veröffentlichst, für die du keine ausdrückliche Erlaubnis des Urhebers hast. Ebenfalls nicht erlaubt ist der Missbrauch der Webangebote unter t3n.de als Werbeplattform. Die Nennung von Produktnamen, Herstellern, Dienstleistern und Websites ist nur dann zulässig, wenn damit nicht vorrangig der Zweck der Werbung verfolgt wird. Wir behalten uns vor, Beiträge, die diese Regeln verletzen, zu löschen und Accounts zeitweilig oder auf Dauer zu sperren.
Trotz all dieser notwendigen Regeln: Diskutiere kontrovers, sage anderen deine Meinung, trage mit weiterführenden Informationen zum Wissensaustausch bei, aber bleibe dabei fair und respektiere die Meinung anderer. Wir wünschen Dir viel Spaß mit den Webangeboten von t3n und freuen uns auf spannende Beiträge.
Dein t3n-Team