Bestehende Forschung zu einem Thema zusammentragen, die Erkenntnisse daraus einordnen und in einem eigenen Text aufbereiten: So lässt sich das Grundprinzip von theoretischen Hausarbeiten zusammenfassen, die also nicht auf empirischer Forschung basieren. Die waren bisher eine verbreitete Prüfungsleistung an Universitäten.
Seit der Einführung von ChatGPT im November 2022 ist allerdings klar: Wer eine entsprechende Arbeit verfassen soll, könnte dafür künftig auf KI-Hilfe zurückgreifen. Wie gehen Bildungseinrichtungen mit dieser Entwicklung um?
Hausarbeit via Chat-GPT: Eine neue Möglichkeit, zu schummeln?
Schon vor dem Release von ChatGPT hatte sich beispielsweise Scott Graham, Professor für Rhetorik und Schreiben an der Universität Texas, der Frage gewidmet, was textgenerierende KI-Anwendungen im Uni-Kontext können – und was nicht.
Nachdem im September 2022 jemand auf Reddit gepostet hatte, er oder sie würde dank KI-generierter Hausarbeiten sehr gute Noten bekommen, hatte Graham seine Studierenden damit beauftragt, Essays über die Verwendung von KI-Anwendungen am Campus zu verfassen. Dabei galt: Ein Großteil der Arbeit sollte automatisch generiert werden, die Studierenden durften lediglich kleine Änderungen vornehmen und die Formatierung anpassen.
Insgesamt seien die so eingereichten Arbeiten „nicht gut” gewesen, „man kann nicht einfach einen Knopf drücken oder eine kurze Eingabeaufforderung einreichen und einen fertigen Aufsatz erhalten”, so Graham gegenüber The Register. Auch bei ChatGPT gibt es beispielsweise immer wieder Fälle, in denen generierte Texte Falschinformationen und hölzern wirkende Formulierungen enthalten.
Trotzdem hat ChatGPT für heftige Diskussionen im wissenschaftlichen Bereich gesorgt und bereitet einigen Dozierenden Sorgen. „Die Hausarbeit – so wir sie bisher kennen – funktioniert nicht mehr, vor allem an den großen Universitäten nicht. In so einem genormten System, das rein auf Output optimiert ist, kann man mit der Software eben gut schummeln”, so Robert Lepenies, Präsident der Karlshochschule International University in Karlsruhe, im Interview mit der Wirtschaftswoche.
Ähnlich sieht das auch Matthias Jaroch, Sprecher des Deutschen Hochschulverbands. „Eine durchaus berechtigte Sorge ist, dass es zusehends schwieriger werden könnte, die Vortäuschung eigenständiger Erkenntnisleistungen zum Beispiel in Hausarbeiten zu erkennen”, sagt er gegenüber dem ZDF.
Lepenies verweist gleichzeitig auf Grenzen von ChatGPT und Co.: „Das Nachdenken übernimmt die Maschine nicht, sondern kann es schlimmstenfalls vorgaukeln. Auch die Selbstsicherheit des Sprachmodells ist unwissenschaftlich: Ein guter Wissenschaftler kommuniziert Unsicherheiten und eigene Irrtümer viel besser als jede mir bekannte KI”.
Wer seine Hausarbeit von ChatGPT schreiben lässt, muss sie derzeit als durchaus noch überarbeiten, um ein glaubwürdiges Ergebnis abzuliefern, spart sich aber trotzdem vielleicht den ein oder anderen Arbeitsschritt – und verschafft sich damit einen Vorteil.
Nun könnte man versuchen, KI-Texte durch stärkere Überwachung und strenge Reglementierung zu unterbinden – für Robert Lepenies ist das aber keine Option. „Wir müssen mit der Technologie leben – und sollten keine Abwehrgefechte führen”.
Aufsätze aus der KI-Feder: Einbinden statt bekämpfen
„KI-Sprachmodelle und -systeme sind ein Faktum im Bereich der Wissensarbeit. (Hoch-)Schulseitige Vogel-Strauß-Taktik ist daher fehl am Platz”, schreibt auch Doris Weßels gemeinsam mit Kolleg:innen in einem Blogbeitrag des Hochschulforums für Digitalisierung.
Weßels ist Professorin an der Fachhochschule Kiel und Mitbegründerin und Leiterin des Virtuellen Kompetenzzentrums Schreiben Lehren und Lernen mit KI.
Wie also könnte es aussehen, wenn KI-Anwendungen nicht als Schummel-Hilfe, sondern ganz offiziell im Bildungskontext zum Einsatz kommt?
Es braucht Transparenz, findet Weßels. Sie könnte sich beispielsweise vorstellen, dass anders als bisher nicht nur die fertige Arbeit, sondern auch der Entstehungsprozess bewertet wird.
Dafür müssten Studierende eine Art Schreibprotokoll anfertigen, das beispielsweise methodische Ansätze, aber eben auch verwendete Werkzeuge offenlegt. In die Bewertung könnte dann einfließen, wie gut die Vorgehensweise zur Fragestellung der Arbeit passt.
Von Uni-Präsident Lepenies gibt es ähnliche Ideen, er schlägt zusätzliche Reflexionsfragen vor, wenn in einer Klausur KI-Anwendungen genutzt werden dürfen. Seine Überzeugung: „Die Nutzung dieses Sprachmodells wird irgendwann so normal werden wie die Rechtschreibprüfung in der Textverarbeitung Word”.
Man kann ja Chat-GPT fragen, wie viel von dem vorliegenden Text es als Eigenkreation erkennt. Da wäre ich gespannt.
Die nächste Generation von Copy&Paste-Artisten glaubt anscheinend schon wieder, dass man restlos unentdeckt schummeln kann, wie so mancher, der seinerzeit seine Diplomarbeit/Promotion usw. auf diese Art und Weise versucht hat, billig zu bekommen. Viel Spaß!