
Die KI will betrügerischen Wissenschaftlern das Handwerk legen. (Foto: Shutterstock / Andrey Suslov)
In der Welt der Wissenschaft geht nicht immer alles mit rechten Dingen zu. Eine der häufigsten Gründe, warum Forschungsberichte in den USA wieder zurückgezogen wurden, war die sogenannte Bildvervielfältigung.
Bei dieser Technik nutzen Wissenschaftler zum Beispiel ein Bild einer Ansammlung von Zellen und kopieren dieses, spiegeln es, drehen es oder schneiden es aus. So macht es den Anschein, dass die Forscher mehr Daten gesammelt hätten, als es eigentlich der Fall ist.
Um zu vermeiden, dass Forschungsberichte wegen Bildvervielfältigung wieder zurückgezogen werden müssen, möchten Publikationen wie die American Association for Cancer Research (AACR) nun KI-gestützte Software einsetzen, die solche Manipulationsversuche erkennt. Das berichtet The Register.
Testlauf bringt erste Zahlen
Die AACR hat die Software namens Proofing vom gleichnamigen Unternehmen in einem Testlauf zwischen Januar 2021 und Mai 2022 eingesetzt. In diesem hat die KI-Software 1.367 Manuskripte geprüft, die bereits vorläufig für die Publikation freigegeben waren.
Bei der Prüfung auf Bildvervielfältigung hat die Software insgesamt 208 der Manuskripte markiert, woraufhin AACR die Autoren kontaktierte. In einem Großteil der Fälle handelte es sich um schlampige Fehler der Forscher und keine absichtliche Vervielfältigung.
Diese Fehler könnten die Autoren relativ einfach beheben, indem sie Daten neu eingereicht haben. Allerdings wurde in insgesamt fünf Fällen eine böse Absicht erkannt. Hier wurden vier Papiere zurückgezogen und eins abgelehnt.
KI-Software braucht menschliche Unterstützung
Das zeigt, dass die Software zumindest momentan noch menschliche Unterstützung braucht, um betrügerische Wissenschaftler ausfindig zu machen. Das berichtet auch Elisabeth Bik, Expertin für Bildforensik und unabhängige wissenschaftliche Beraterin gegenüber The Register:
„Sie brauchen immer noch einen Menschen mit etwas Wissen und Erfahrung, um die Ergebnisse zu interpretieren. Man kann Software nicht einfach automatisch ihren Lauf lassen, sie kann viele Dinge anzeigen, die vollkommen in Ordnung sind.“
Auch die Erkennung von Manipulation über verschiedene Papiere hinweg ist nicht möglich. Die Software vergleicht lediglich Bilder in einem Forschungsbericht. Um Duplikate auch über mehrere Berichte hinweg erkennen zu können, bedarf es einer Datenbank, wie Proofigs Mitbegründer Dror Kolodkin-Gal beschreibt:
„Die größte Herausforderung für die Community sind heute Big Data. Wenn die Verlage nicht anfangen, zusammenzuarbeiten, um eine Datenbank mit problematischen Bildern aufzubauen, wird [Bildplagiat] ein Problem bleiben. Um KI zu entwickeln, braucht man Big Data.“
KIs können aber noch mehr akademische Arbeit leisten, als doppelte Bilder in Forschungsberichten zu erkennen. Eine KI schrieb zum Beispiel einen Aufsatz über sich selbst innerhalb von zwei Stunden.
Eine weitere KI-Software von Google hat bereits 2017 gelernt, KI-Software zu schreiben, wodurch der Prozess zumindest teilweise automatisiert werden konnte.