ChatGPT-Fail: Anwalt fliegt mit KI-generierten Fake-Zitaten vor Gericht auf

Mit ChatGPT mal eine E-Mail schreiben oder sich von der KI einen Text zusammenfassen lassen, gehört bei vielen Menschen mittlerweile zum Alltag dazu. Doch bei einigen Berufsgruppen fällt es mehr auf, wenn Leute ihre Texte von einer KI schreiben lassen.
Das musste auch ein australischer Anwalt auf die harte Weise erfahren. Er muss sich nämlich jetzt vor einer staatlichen Rechtsbeschwerdekommission rechtfertigen, nachdem sich herausgestellt hat, dass er Gerichtsakten mithilfe von ChatGPT verfasst hat. So halluzinierte die KI und generierte in einem Migrations-Fall Zitate, die gar nicht existieren.
Wie der Anwalt aufgeflogen ist
Die australische Richterin Rania Skaros leitete den Anwalt, dessen Name von den Dokumenten geschwärzt wurde, an die Rechtsbeschwerdekommission OLSC weiter. Der Anwalt reichte im Rahmen eines Berufungsverfahrens im Oktober 2024 einen geänderten Antrag an das Bundesbezirks- und Familiengericht sowie einen Entwurf von Schriftsätzen ein. Die Richterin sagte, dass „beide Dokumente Zitate von Fällen und angebliche Zitate aus der Entscheidung des Gerichts enthielten, die nicht existierten“.
Auch der Anwalt gab seine Fehler zu und erklärte, dass sie unbeabsichtigt seien. In einer eidesstattlichen Erklärung begründete er seine Entscheidung mit Zeitmangel und gesundheitlichen Problemen, weswegen er sich für den Einsatz von ChatGPT entschieden habe. So hat der Anwalt einfach den Chatbot nach einer Zusammenfassung der Fälle gefragt.
Statt nach existierenden Fallbeispielen zu suchen, lieferte ihm die KI nicht existierende Fälle. „Er sagte, dass die Zusammenfassung gut zu lesen sei, also übernahm er die Quellen und Verweise in seinen Antrag, ohne die Details zu überprüfen“, heißt es in dem Dokument, das dem Guardian vorliegt. Die Richterin und ihre Mitarbeitenden haben noch vergeblich versucht, die Zitate zu finden.
Das oberste Gericht des australischen Bundesstaates New South Wales ordnete schon im letzten Jahr an, dass Anwält:innen des Bezirkes keine KI benutzen dürfen. Die am 3. Februar in Kraft getretene Klausel verbietet die Generierung von eidesstattlichen Erklärungen, Zeugenaussagen, Leumundszeugnissen oder anderem Material, das als Beweismittel vorgelegt oder im Kreuzverhör verwendet werden kann.