Verzerrte Bilder und seltsame Zahlen: Wie eine Studentin ihren Professor bei ChatGPT-Nutzung ertappte

Inwieweit sollte die Nutzung von KI-Tools im Studium erlaubt sein? Diese Frage wird an US-amerikanischen Universitäten derzeit intensiv diskutiert. Wie die New York Times berichtet, forderte jetzt eine Studentin der Northeastern University ihre Semestergebühren in Höhe von 8.000 US-Dollar zurück, nachdem sie feststellen musste, dass ihr Professor Vorlesungsunterlagen mithilfe von ChatGPT erstellt hatte. Die Hochschule prüfte den Fall – und lehnte die Forderung ab.
Sollten Professor:innen KI-Tools nutzen dürfen?
An Hochschulen wird der Einsatz von KI zunehmend zum Reizthema. Ein Bericht von OpenAI zeigt: In den USA verwenden College-Student:innen ChatGPT häufiger als jede andere Nutzer:innengruppe. Viele haben sich Prompts abgespeichert oder sogar auswendig gelernt, um sie gezielt einzusetzen. Manche greifen dabei bewusst zu „dümmeren Prompts“, um nicht durch zu perfekte Formulierungen aufzufallen. Andere lassen ihre Texte durch mehrere KI-Tools laufen, um Rückschlüsse auf die Herkunft der Inhalte zu erschweren.
Aber nicht nur Student:innen setzen KI ein. Auch Lehrkräfte nutzen Werkzeuge wie ChatGPT inzwischen regelmäßig – zur Vorbereitung von Vorlesungen oder zur Erstellung von Arbeitsmaterialien. Welche Folgen das nach sich ziehen kann, zeigt der aktuelle Fall von Ella Stapleton: Die Studentin der Northeastern University entdeckte in ihren Vorlesungsunterlagen auffällige Schreibfehler, verzerrte Bilder und seltsame Zahlen. Für sie war klar: Ihr Professor Rick Arrowood hatte die Inhalte mithilfe von KI erstellt. Stapleton war entsetzt: „Er sagt uns, dass wir es nicht benutzen dürfen – und dann benutzt er es selbst.“
Studie belegt: Wer KI-Tools nutzt, gilt als faul
Stapleton beantragte daraufhin die Rückerstattung ihrer Studiengebühren – allerdings ohne Erfolg. Auch Paul Shovlin, Englischdozent und KI-Stipendiat an der University of Ohio, empfindet die Forderung als völlig überzogen. Er findet es lächerlich, wenn Student:innen ihre Professor:innen als eine Art Monster darstellen, nur weil sie für ihre Arbeit KI-Tools verwenden. Gleichzeitig erkennt er an, dass der Umgang mit KI an Hochschulen bisher kaum standardisiert ist, was zu Unsicherheiten auf allen Seiten führt.
Hinzu kommt ein soziales Problem: Menschen, die KI-Tools in Studium oder Beruf einsetzen, gelten schnell als faul, weshalb andere dazu tendieren, ihre Arbeit als weniger wertig zu empfinden. Eine Studie der Duke University mit über 4.400 Teilnehmer:innen bestätigt das: „Unsere Ergebnisse offenbaren ein Dilemma für Menschen, die den Einsatz von KI-Tools erwägen“, kommentierten die Forscher:innen. „Obwohl KI die Produktivität steigern kann, ist ihr Einsatz mit sozialen Kosten verbunden.“
Universitäten brauchen klare KI-Richtlinien
Professor Arrowood erklärte, er habe ChatGPT und andere Tools wie Perplexity eingesetzt, um seine Vorlesungen zu gestalten. Die Fehler und KI-typischen Details, auf die seine Studentin hinwies, seien ihm nicht aufgefallen. Rückblickend fordert er mehr Transparenz: Lehrkräfte wie er sollten über ihren KI-Einsatz offen informieren – und kritisch reflektieren, in welchem Umfang er sinnvoll ist.
Auch in Deutschland greifen viele Student:innen auf KI-Tools zurück. Laut einer bundesweiten Umfrage der Hochschule Darmstadt verwenden schon heute 92 Prozent der Student:innen Tools wie ChatGPT zumindest gelegentlich. Trotzdem fehlt es an den meisten Universitäten bislang an verbindliche Richtlinien. Dabei verpflichtet eine neue KI-Verordnung Hochschulen schon seit Februar 2024 dazu, Student:innen und Lehrkräften grundlegende Kompetenzen im Umgang mit KI zu vermitteln. Wie diese konkret aussehen und wo Grenzen gezogen werden sollten, ist vielerorts aber noch offen.