Im Februar 2023 hatte ein Richter sich bei der Erstellung seiner Urteilsbegründung von ChatGPT beraten lassen. Das hatte weltweit für Aufsehen gesorgt, schließlich warnt selbst die Entwicklerfirma des KI-Chatbots, OpenAI, davor, dass ChatGPT Fehler machen könne.
Anwälte verlassen sich auf ChatGPT
Als Unterstützung für Anwält:innen kommt KI, darunter auch ChatGPT, aber schon länger zum Einsatz – unter anderem für die New Yorker Firma Donotpay. Deren KI-Roboteranwalt trat allerdings nach Klagen und Drohungen doch nicht wie angekündigt vor Gericht an.
Während Google-CEO Sundar Pichai in ChatGPT oder der konzerneigenen Konkurrenz Bard eine nützliche Unterstützung für Routinearbeiten in Kanzleien sieht, zeigt ein aktueller Fall zugleich die Gefahr von KI-Chatbots auf.
Ein Anwalt, der seinen Mandanten vor dem Bezirksgericht in Manhattan bei einer Klage gegen eine Fluggesellschaft vertrat, blamierte sich mächtig, als er die Hilfe von ChatGPT in Anspruch nahm.
Konkret geht es um einen Fall, bei dem ein Mann eine Airline auf Schmerzensgeld verklagt, weil er auf einem Flug von einem Servierwagen angefahren sein soll.
Der Anwalt des Mannes an sich ist wenig spektakulär. Dass der Fall trotzdem weltweit für Schlagzeilen sorgt, liegt an der Halluzination von ChatGPT.
KI-Chatbot halluziniert Präzedenzfälle
Denn der KI-Chatbot hatte für den Anwalt eine Reihe von Präzedenzfällen „recherchiert“, die es gar nicht gibt. Die Anwält:innen der Fluglinie versuchten vergeblich, die entsprechenden Fallakten zu finden.
Das hätte eigentlich leicht möglich sein müssen, weil die Fälle sogar mit entsprechenden Aktenzeichen aufgeführt wurden. Auf Nachfrage lieferte der Anwalt sogar mehrseitige Auszüge aus den Akten, wie die New York Times berichtet.
Das Problem: Weder die Akten noch die Aktenzeichen oder die Inhalte existieren. ChatGPT hatte sich das Ganze – auf entsprechende Anfragen des Klägeranwalts hin – ausgedacht.
ChatGPT versicherte, dass alles korrekt ist
Dabei waren dem Anwalt des Klägers die Rechercheergebnisse von ChatGPT selbst etwas seltsam vorgekommen. Als der KI-Chatbot ihm aber versichert habe, dass alles korrekt sei, habe er von eigenen Nachforschungen abgesehen.
Ein Fehler, wie der Mann jetzt laut Golem zugab. ChatGPT habe sich „als unzuverlässig erwiesen“, so der Anwalt. Das Ganze sollte der Branche als Warnung dienen, sich bei ihren Recherchen zu Rechten oder Präzedenzfällen auf ChatGPT zu verlassen.