Anzeige
Anzeige
MIT Technology Review News

Was passiert, wenn Sprachmodelle mit Texten von Sprachmodellen trainiert werden?

Schon lange wird vermutet, dass große Sprachmodelle immer unfähiger werden. Eine neue Studie könnte eine Erklärung dafür liefern.

Von Wolfgang Stieler
2 Min.
Artikel merken
Anzeige
Anzeige
Gemini, ChatGPT, Copilot oder sogar Grok? Die Auswahl an guten LLM wächst. (Foto: Mojahid Mottakin/ Shutterstock)

Garbage in, garbage out – böse formuliert ließe sich so ein neues Paper zusammenfassen, dass Forschende aus Kanada und Großbritannien jetzt in Nature veröffentlicht haben. Doch natürlich steckt mehr dahinter: Ilia Shumailov und seine Kollegen zeigten darin, dass ein großes Sprachmodell, das mit synthetischen Daten trainiert wird, die es selbst produziert wird, immer schlechteren Output liefert. Und nach ein paar Durchläufen nur noch stammelt – es kollabiert.

Anzeige
Anzeige

Die Forschenden führten mit dem OPT-125m-Sprachmodell von Meta ein so genanntes Finetuning mit dem wikitext2-Datensatz durch. Mit diesem Modell produzierten sie einen neuen Datensatz für die nächste Feinabstimmung – und so weiter über neun Generationen hinweg. Nach zehn Durchläufen konnte das Modell keinen sinnvollen Output mehr erzeugen.

Warum ist das bedeutsam?

Dieses Ergebnis ist mehr als eine akademische Fingerübung. Denn zum einen scheint es die bereits seit einiger Zeit immer wieder kursierenden Vermutungen zu bestätigen, dass große Sprachmodelle seit ihrer Markteinführung schlechter geworden sind – obwohl sie mit aktuelleren Daten nachtrainiert wurden.

Anzeige
Anzeige

Zum anderen aber greift das Paper ein zentrales Problem bei der Weiterentwicklung großer Sprachmodelle auf: den Datenhunger von LLMs. Weil immer mehr größere Modelle immer mehr Trainingsdaten brauchen, könnte bereits 2026 der gesamte von Menschen produzierte Textkörper nicht mehr ausreichen, um die nächste Generation großer Sprachmodelle zu trainieren. Für das Training – und vor allem auch das Finetuning – großer Sprachmodelle werden daher schon jetzt immer häufiger synthetische Daten eingesetzt, die wiederum von anderen großen Sprachmodellen produziert werden.

Das Ende ist also nahe?

Heißt das nun, dass die zur Zeit existierenden großen Sprachmodelle das Beste sind, das wir bekommen können, und alle nachfolgenden Modelle zwangsläufig immer schlechter werden?

Anzeige
Anzeige

Zum Glück ist die Datenlage nicht ganz so eindeutig, denn die Studie von Shumailov und seine Kolleg:innen hat zwei Schwächen: Erstens haben sie, weil das viel zu teuer und aufwendig gewesen wäre, ihr Modell nicht von Grund auf trainiert, sondern nur feinabgestimmt. Auf Nachfrage von TR erklärte Shumailov allerdings, diese beiden Prozesse seien ähnlich, und die zugrunde liegende Theorie des Modellzusammenbruchs sei „sehr allgemein“. Aus dieser Theorie könne man ableiten, dass „ein Zusammenbruch unvermeidlich“ sei. „Das ist nur eine Frage der Wiederholungen“. Gezeigt haben die Forschenden das in ihrem Paper aber nicht.

Außerdem widersprechen die Ergebnisse der Veröffentlichung von einer Reihe sehr mächtiger, kleiner Sprachmodelle wie Alpaca oder Phi-3, die deswegen so kompakt sind, weil sie mit synthetischen Daten trainiert wurden. Das lässt sich nur dadurch erklären, dass Shumailov und seine Kolleg:innen ihre synthetisch erzeugten Traningsdaten nicht weiter bearbeitet und gefiltert haben – was jedoch bei dieser Vorgehensweise ansonsten üblich ist.

Anzeige
Anzeige

Stattdessen schlagen die Forschenden vor, in synthetisch erzeugten Traningsdaten immer mindestens zehn Prozent menschliche Ursprungsdaten zu mischen. Allerdings müssten die Daten dann über eine Art Label (menschlich, KI) verfügen, das auch im Training beibehalten werden müsste.

Mehr zu diesem Thema
Fast fertig!

Bitte klicke auf den Link in der Bestätigungsmail, um deine Anmeldung abzuschließen.

Du willst noch weitere Infos zum Newsletter? Jetzt mehr erfahren

Anzeige
Anzeige
Kommentare

Community-Richtlinien

Bitte schalte deinen Adblocker für t3n.de aus!
Hallo und herzlich willkommen bei t3n!

Bitte schalte deinen Adblocker für t3n.de aus, um diesen Artikel zu lesen.

Wir sind ein unabhängiger Publisher mit einem Team von mehr als 75 fantastischen Menschen, aber ohne riesigen Konzern im Rücken. Banner und ähnliche Werbemittel sind für unsere Finanzierung sehr wichtig.

Schon jetzt und im Namen der gesamten t3n-Crew: vielen Dank für deine Unterstützung! 🙌

Deine t3n-Crew

Anleitung zur Deaktivierung
Artikel merken

Bitte melde dich an, um diesen Artikel in deiner persönlichen Merkliste auf t3n zu speichern.

Jetzt registrieren und merken

Du hast schon einen t3n-Account? Hier anmelden

oder
Auf Mastodon teilen

Gib die URL deiner Mastodon-Instanz ein, um den Artikel zu teilen.

Community-Richtlinien

Wir freuen uns über kontroverse Diskussionen, die gerne auch mal hitzig geführt werden dürfen. Beleidigende, grob anstößige, rassistische und strafrechtlich relevante Äußerungen und Beiträge tolerieren wir nicht. Bitte achte darauf, dass du keine Texte veröffentlichst, für die du keine ausdrückliche Erlaubnis des Urhebers hast. Ebenfalls nicht erlaubt ist der Missbrauch der Webangebote unter t3n.de als Werbeplattform. Die Nennung von Produktnamen, Herstellern, Dienstleistern und Websites ist nur dann zulässig, wenn damit nicht vorrangig der Zweck der Werbung verfolgt wird. Wir behalten uns vor, Beiträge, die diese Regeln verletzen, zu löschen und Accounts zeitweilig oder auf Dauer zu sperren.

Trotz all dieser notwendigen Regeln: Diskutiere kontrovers, sage anderen deine Meinung, trage mit weiterführenden Informationen zum Wissensaustausch bei, aber bleibe dabei fair und respektiere die Meinung anderer. Wir wünschen Dir viel Spaß mit den Webangeboten von t3n und freuen uns auf spannende Beiträge.

Dein t3n-Team

Kommentar abgeben

Melde dich an, um Kommentare schreiben und mit anderen Leser:innen und unseren Autor:innen diskutieren zu können.

Anmelden und kommentieren

Du hast noch keinen t3n-Account? Hier registrieren

Anzeige
Anzeige