Dozenten schreiben Arbeit mit KI – und zeigen Gefahren und einen großen Vorteil auf

Wissenschaftler:innen der Universität Plymouth und der Plymouth Marjon University haben ChatGPT verschiedene akademische Texte verfassen lassen. Die haben sie dann zu einem Paper zusammengefügt. Das Paper soll zeigen, in welchen wissenschaftlichen Bereichen ChatGPT hilfreich sein kann, wo es noch deutliche Schwächen aufweist und wo es ernste Risiken birgt. Das berichtet Phys.org, eine Newsseite des Science X Networks.
ChatGPT schreibt Studie, Forscher:innen komplettieren mit Referenzen
Die Wissenschaftler:innen haben ChatGPT diverse Prompts gegeben und den Bot angewiesen, die Antworten in einem wissenschaftlichen Stil zu verfassen. Unter den Prompts waren beispielsweise:
- Verfasse ein eigenes akademisches Paper mit Referenzen, in der du die Implikationen von GPT-3 auf die Leistungsbewertungen in der Hochschulbildung beschreibst.
- Wie können Wissenschaftler:innen vermeiden, dass Student:innen mithilfe von GPT-3 plagiieren?
- Gibt es Technologien, die prüfen können, ob eine Arbeit von einem Chatbot geschrieben wurde?
- Produziere mehrere clevere und intelligente Titel für ein akademisches Research-Paper über die Herausforderungen, denen sich Universitäten im Zusammenhang mit ChatGPT und Plagiaten gegenübersehen.
Die Textteile von ChatGPT wurden in einer Struktur zusammengefügt, die der Chatbot vorgeschlagen hat. Die Referenzen wurden vom Forschungsteam geprüft und angereichert.
Schreibtanteil von ChatGPT erst im letzten Teil aufgedeckt
Erst im Diskussionsteil des Papers wird dargelegt, dass ChatGPT den Großteil der Arbeit verfasst hat. Die Diskussion wurde von den Wissenschaftler:innen ohne Input von der Software verfasst. Sie betonen darin: Obwohl ChatGPT schon gut schreiben könne, sei der Ausdruck immer stark formelhaft. Bestehende AI-Erkennungswerkzeuge seien in der Lage, das zu erkennen.
Dennoch sollten Dozent:innen aufpassen, wie sie ihre Aufgaben gestalten. Dieser Weckruf solle auch dazu führen, dass Dozent:innen mit ihren Student:innen darüber sprechen, was akademische Unredlichkeit sei und welche Praktiken darunterfallen.
Was lernen Student:innen – und warum?
Debby Cotton, Director of Academic Practice and Professor of Higher Education an der Plymouth Marjon University, ist die Hauptautorin der Studie. Laut ihr bringe diese technologische Entwicklung natürlich große Schwierigkeiten für Universitäten, vor allem wenn es darum geht, das Wissen von Student:innen abzufragen und ihnen das wissenschaftliche Schreiben beizubringen. „Aber wenn man es positiv betrachtet, ist es eine Gelegenheit für uns, zu überdenken, was wir den Studierenden beibringen wollen und warum“, sagt sie gegenüber phys.org. KI könne den Dozent:innen administrative Aufgaben abnehmen, damit sie mehr mit ihren Student:innen zusammenarbeiten können.
Laut Petter Cotton, Associate Professor in Ecology an der University of Plymouth, der ebenfalls zum Paper beigetragen hat, ist es nur eine kurzfristige Lösung, ChatGPT an Universitäten und Schulen zu verbieten, wie es in New York geschehen ist. Das liege vor allem daran, dass die KI außerhalb der Institutionen bereits frei zugänglich und beispielsweise bereits in Suchmaschinen implementiert worden ist.
„Wie können Wissenschaftler:innen vermeiden, dass Student:innen mithilfe von GPT-3 plagiieren?“
Das war der Prompt? Wirklich? Oder ist er von Ihnen mit „:innen“ angereichert worden? Ich finde es in Ordnung, wenn Sie Ihre Toleranz demonstrieren wollen und dafür sogen, dass sich alle Leser:innen angesprochen fühlen, indem Sie jeden Hauptsatz mit „:innen“ anreichern, das mache ich mit Texten, die für die Öffentlichkeit bestimmt sind, auch. Aber Zitate anderer abzuändern, geht zu weit!