Vom KI-Detektor fälschlich beschuldigt: Wie eine Studentin mit 15 Seiten Beweismaterial ihre Unschuld bewies

Künstliche Intelligenz ist an Hochschulen ein brisantes Thema. Einerseits werden Dozent:innen in den Wahnsinn getrieben, weil Student:innen mit ChatGPT schummeln. Andererseits wurden auch schon Dozent:innen bei der Nutzung von KI erwischt und müssen jetzt Konsequenzen befürchten. Bei der Erkennung von KI-generierten Inhalten sollen sogenannte KI-Detektoren helfen. Doch diese liegen auch nicht immer richtig.
Wenn KI-Detektoren falschliegen, tragen Student:innen die Beweislast
Wie die New York Times berichtet, gab es schon mehrere Fälle, in denen die Tools fälschlicherweise einen Text als KI-generiert markiert haben. So etwa bei der Studentin Leigh Burrell, die eine Benachrichtigung von einem ihrer Dozenten erhielt. Darin stand, dass ein KI-Detektor erkannt hat, dass ihre eingereichte Arbeit teilweise mit einem Tool erstellt wurde. Dadurch würde sie durchfallen – und das in einem Kurs, der am Ende des Semesters 15 Prozent ihrer Endnote ausmacht.
Glücklicherweise konnten die Anschuldigungen von Leigh Burrell widerlegt werden. Sie schickte dem Lehrstuhl ein 15-seitiges PDF mit Screenshots, Notizen und der Änderungshistorie ihrer Arbeit, die sie in Google Docs erstellt hatte. Sämtliche Aktionen, die sie an der Arbeit vorgenommen hatte, konnten per Zeitstempel nachgewiesen werden. Solche Fälle haben auch schon andere Student:innen dazu gebracht, ihre Arbeiten von Anfang an zu dokumentieren.
Einige Student:innen sind dazu übergegangen, die Bildschirmaufnahmefunktion ihres Laptops durchgängig laufen zu lassen. Am Ende haben sie ein stundenlanges Video, das jeden Schritt ihrer Recherchen und Schreibarbeiten dokumentiert. Andere suchen sich ihre Schreibprogramme mittlerweile danach aus, ob es eine exportierbare Historie der bisherigen Arbeitsschritte und Änderungen gibt.
Dass die KI-Detektoren nicht hundertprozentig zuverlässig sind, geben die Verantwortlichen hinter den Tools oftmals selbst zu. So auch Turnitin, der Hersteller des KI-Detektors, der an der Universität von Leigh Burrell zum Einsatz kommt und ihre Arbeit markiert hat. Laut Turnitin gibt es eine Fehlerquote von etwa vier Prozent und sollten nie allein als Entscheidungsgrundlage dienen.
Das haben mittlerweile auch einige Universitäten in den USA erkannt. Sie haben die KI-Detektoren entweder wieder komplett abgeschafft oder sie als nur einen Indikator für den Einsatz künstlicher Intelligenz zugelassen. Denn oftmals erkennen die Detektoren lediglich, dass der angewandte Schreibstil nicht der Norm entspricht. Kathryn Mayo, College-Professorin in Sacramento, musste das am eigenen Leib erfahren. Auch sie setzte ein Tool ein, um ihre Student:innen zu überprüfen. Als sie probeweise ihre eigenen Texte analysieren ließ, schlug das Tool aber ebenfalls Alarm.
Seither hat sie das Tool nur noch sparsam eingesetzt. Stattdessen gibt sie Student:innen persönliche Schreibaufgaben. Das soll es schwerer machen, die Aufgaben von KI-Tools wie ChatGPT erledigen zu lassen. Sollte sie jemanden unter Verdacht haben, auf KI-Tools zurückzugreifen, konfrontiert sie die Betroffenen in einem lockeren Gespräch. Laut ihr geben die meisten direkt zu, dass sie KI eingesetzt haben – oder brechen ihren Kurs einfach ohne weitere Erklärung ab.