Dieser Nonsens-Begriff erobert die Wissenschaft – Grund ist ein KI-Fehler

KI kann fälschlicherweise auch Nonsens-Begriffe etablieren. (Foto: Shutterstock / Andrey Suslov)
Habt ihr schon mal von „vegetativer Elektronenmikroskopie“ gehört? Wahrscheinlich nicht. Denn den Begriff gibt es schlicht nicht – und doch hat er sich in wissenschaftlichen Arbeiten breit gemacht.
Wegen KI: Nonsens-Begriff wurde zu „digitalen Fossil“
Anfang des Jahres entdeckten Wissenschaftler:innen in veröffentlichten Arbeiten den eigenartigen Begriff der „vegetativen Elektronenmikroskopie“. Er klingt zwar wissenschaftlich, ist aber Unsinn. Das Portal The Conversation, wo Wissenschaftler:innen sich zu aktuellen Fragen und Themen äußern, schreibt, dass er zu einem „digitalen Fossil“ geworden ist – einem Fehler, der in KI-Systemen konserviert und verstärkt wird und sich kaum aus unseren Wissensspeichern entfernen lässt.
„Wie biologische Fossilien, die in Gestein eingeschlossen sind, könnten diese digitalen Artefakte zu einem festen Bestandteil unseres Informationsökosystems werden.“
Entstanden ist der Nonsens-Begriff wohl durch Fehler beim Scannen und Digitalisieren zweier wissenschaftlicher Arbeiten aus den 1950er Jahren. Beim Digitalisierungsprozess dieser wurde laut The Conversation fälschlicherweise „vegetativ“ aus einer Textspalte mit „Elektron“ aus einer anderen kombiniert. Der Nonsens-Begriff war in der (wissenschaftlichen) Welt.
Solche Fehler zu beheben, ist wohl nahezu unmöglich
Jahrzehnte später tauchte „vegetative Elektronenmikroskopie“ in einigen iranischen wissenschaftlichen Arbeiten auf. Bis heute konnte der Begriff in 22 Arbeiten festgestellt werden, auch Zeitungsartikel, die sich mit wissenschaftlichen Themen beschäftigen, griffen ihn auf. So verbreitete er sich weiter und weiter.
Um die Ursachen für die Entstehung des Nonsens-Begriff herauszufinden, warf The Conversation einen Blick in die riesigen Datenmengen, mit denen KI-Modelle trainiert wurden. Dabei wurde festgestellt, dass OpenAIs ChatGPT-3, GPT-4o und auch Claude 3.5 von Anthropic den Begriff verwendeten. Die mangelnde Transparenz kommerzieller KI-Modelle – OpenAI und andere Entwickler weigern sich, genaue Angaben zu den Trainingsdaten ihrer Modelle zu machen – führt laut The Conversation dazu, dass es „nahezu unmöglich“ sei, solche Fehler zu beheben.
12 Krasse Fehlprognosen der Tech-Geschichte: Auch Experten liegen mal daneben
Wie viele andere unsinnige Begriffe gibt es in KI-Systemen bereits?
Und es stellt sich die Frage: Wie viele andere unsinnige Begriffe gibt es in KI-Systemen bereits? Die Frage dürfte relevant sein, denn KI-gestützte Forschung und Veröffentlichungen werden immer häufiger. Einige automatische Screening-Tools kennzeichnen „vegetative Elektronenmikroskopie“ mittlerweile als Warnsignal für möglicherweise KI-generierte Inhalte. Solche Ansätze können jedoch nur bekannte Fehler beheben, nicht unentdeckte.
Klar ist, dass die daraus resultierenden Herausforderungen für Technologieunternehmen, Forscher:innen und Verlage groß sind – denn der Aufstieg von KI schafft die Möglichkeit, dass sich Fehler dauerhaft in unseren Wissenssystemen festsetzen.