Universität setzt KI gegen KI-Schummler ein – 90 Prozent der Fälle waren Fehlalarme
An vielen Universitäten fehlen noch klare Richtlinien, die festlegen, wie KI genutzt werden darf – und wo die Grenzen liegen. Das gilt für Student:innen genauso wie für Dozent:innen und Prüfungsämter. Wie ABC berichtet, wurden an einer australischen Universität zahlreiche Student:innen durch den Einsatz eines KI-Detektors fälschlicherweise des Schummelns beschuldigt. Für einige von ihnen hatte das ernstzunehmende berufliche Konsequenzen.
Der Einsatz von KI ist im Unialltag weit verbreitet
Laut einem Bericht von OpenAI nutzen in den USA Student:innen ChatGPT häufiger als jede andere Bevölkerungsgruppe. Auch in Deutschland ist der Einsatz weitverbreitet: In einer bundesweiten Befragung der Hochschule Darmstadt gaben 92 Prozent der Student:innen an, KI zumindest gelegentlich zu verwenden. Mittlerweile greifen auch Professor:innen und ganze Universitäten auf entsprechende Tools zurück. Ein Dozent der Universität Oxford wagte sogar ein Selbstexperiment und ließ sich vollständig durch einen KI-Agenten ersetzen.
Doch so hilfreich KI im akademischen Alltag auch sein mag – sie sorgt zunehmend für Konflikte. Seit Jahren setzen Universitäten Tools zur Plagiatsprüfung ein. Turnitin ist eines davon, das im Jahr 2023 durch einen KI-Detektor ergänzt wurde. Auch die Australian Catholic University (ACU) nutzte das KI-Tool, um mögliche Verstöße in Hausarbeiten aufzudecken. Zwar empfehlen die Entwickler:innen ausdrücklich, die Ergebnisse manuell zu überprüfen, laut ABC deutet allerdings vieles daraufhin, dass sich die ACU häufig ausschließlich auf die automatisierten Bewertungen des Programms verließ.
Viele wurden zu Unrecht von der KI beschuldigt
Interne Unterlagen zeigen, dass die ACU im Jahr 2024 fast 6.000 Fälle mutmaßlichen Fehlverhaltens registrierte. Rund 90 Prozent davon standen im Zusammenhang mit angeblicher KI-Nutzung. Auch ein Student, der im letzten Jahr seiner Ausbildung zum Rettungssanitäter war, wurde beschuldigt, KI zum Schummeln eingesetzt zu haben. Er berichtet: „Es ist KI, die KI erkennt, und fast mein gesamter Aufsatz war blau markiert – 84 Prozent davon sollen von KI geschrieben worden sein.“
Die Folgen waren für die Betroffenen teilweise gravierend. So erhielt etwa eine Pflegestudentin namens Madeleine kurz vor ihrem Abschluss eine E-Mail, in der ihr vorgeworfen wurde, bei einer Hausarbeit KI genutzt zu haben. Es dauerte sechs Monate, bis die Universität sie vollständig entlastete. Während der Untersuchung wurde ihr Zeugnis mit einem Vermerk versehen, dass die Ergebnisse von der Universität vorerst zurückgehalten wurden. Laut Madeleine führte diese Angabe dazu, dass sie als Berufseinsteigerin keinen Job fand.
Universitäten brauchen eine bessere KI-Kompetenz
Inzwischen verzichtet die ACU auf den Einsatz des Turnitin-Detektors. Bei den Student:innen bleibt der Frust allerdings groß: Viele von ihnen wurden nicht nur zu Unrecht beschuldigt, sondern mussten teils monatelang auf eine Entscheidung der ACU warten. Einige gerieten dadurch sogar in eine existenzielle Krise: „Ich wusste nicht, was ich tun sollte. Sollte ich zurückgehen und weiterstudieren? Sollte ich einfach aufgeben und etwas anderes als Krankenpflege in einem Krankenhaus machen?“, berichtet Madeleine. Tania Broadley, die stellvertretende Vizekanzlerin der ACU, spielte die Situation gegenüber ABC zwar herunter, entschuldigte sich aber trotzdem für die entstandenen Schäden.
Auch Dozent:innen äußern Kritik. Die ACU-Wissenschaftlerin Leah Kaufmann bemängelt, dass viele Akademiker:innen kaum über KI-Kompetenzen verfügen und sich die Richtlinien ständig ändern. Das sei für alle Beteiligten verwirrend. Danny Liu, Professor für Bildungstechnologie an der Universität Sydney, hält ein Verbot von KI-Tools für den falschen Weg. Stattdessen sollten Universitäten vermitteln, wie man verantwortungsvoll damit umgeht. „Wir wollen überprüfen, ob ein Studierender lernt, nicht ob er betrügt“, erklärt Liu. „Denn wenn er nicht lernt, betrügt er im Grunde genommen nur sich selbst.“