Anzeige
Anzeige
Fundstück

Mad: Wenn Bild-KI von Bild-KI lernt, wird es richtig sonderbar

Wenn KI-Modelle wiederholt mit KI-generierten Daten trainiert werden, verlieren sie an Qualität – bis zum totalen Realitätsverlust. Texanische Forscher:innen sprechen von einer „Modell-Autophagie-Störung“.

Von Ann-Catherin Karg
2 Min.
Artikel merken
Anzeige
Anzeige
Wenn KI-Bilder von KI-Bildern lernen, kann das Ergebnis schon mal „mad“ sein: „Wir bezeichnen diesen Zustand als Model Autophagy Disorder (MAD), in Analogie zum Rinderwahnsinn“, heißt es in der entsprechenden Studie der texanischen Rice University. (Bild: Rice University)

In Zeiten, in denen die Fortschritte von KI rasanter denn je zu sein scheinen, ist die Versuchung groß: Nichts scheint einfacher (oder auch logischer), als synthetische Daten zum Trainieren von KI-Modellen der nächsten Generation zu verwenden. Doch die Ergebnisse – besonders bei wiederholtem Training auf Basis KI-generierter Daten – lassen mehr als nur zu wünschen übrig, wie eine Studie der texanischen Rice University in Zusammenarbeit mit der Stanford University zeigt.

Anzeige
Anzeige

Autophagische Schleife: Wenn KI sich selbst verzehrt

Fünf Trainingsiterationen reichen schon aus, um generative KI „mad“ (dt. „wahnsinnig“) werden zu lassen. „MAD“ steht in diesem Fall für „Model Autophagy Disorder“: Diesen Begriff in Anlehnung an die Mad Cow Disease (Rinderwahnsinn) verwenden die Wissenschaftler:innen, um zu beschreiben, wie KI-Modelle und ihre Ausgabequalität zusammenbrechen, wenn sie wiederholt mit KI-generierten Daten trainiert werden.

„Durch die Wiederholung dieses Prozesses entsteht eine autophagische (sich selbst verzehrende) Schleife, deren Eigenschaften nur unzureichend verstanden werden“, heißt es in der Studie. Die Wissenschaftler aus den Bereichen Elektro- und Computertechnik, Statistik sowie angewandter Computermathematik fokussierten StyleGAN-Modelle, die Bilder in einem einzigen Durchgang erstellen, und Diffusionsmodelle, die viele Schritte verwenden, um schrittweise ein klares Bild zu erzeugen.

Anzeige
Anzeige

Sie trainierten KI entweder mit KI-generierten Bildern oder echten Bildern. Letztere bestanden aus 70.000 Fotos von menschlichen Gesichtern, die vom Online-Fotodienst Flickr stammten.

Es zeigte sich: Innerhalb weniger Generationen erschienen wellige visuelle Muster auf den menschlichen Gesichtern, die vom StyleGAN-Bildgenerator erzeugt wurden, während die Ergebnisse des Diffusionsbildgenerators zunehmend verschwommen wurden.

Anzeige
Anzeige

„Die sinkende Bildqualität kann durch die Auswahl von KI-generierten Bildern von höherer Qualität für die Verwendung im Training verlangsamt werden. Aber dieser Ansatz kann dazu führen, dass KI-generierte Bilder ähnlicher aussehen“, heißt es in einer Einschätzung des Portals Newscientist. Auch die Verwendung eines festen Sets an echten Bildern in der Trainingsumgebung verzögerte die Verschlechterung lediglich.

Anzeige
Anzeige

Der vielversprechendste Ansatz: die Kombination aus KI-generierten Bildern und einem sich ständig ändernden Satz realer Bilder. Auch dies verringerte den Rückgang der Qualität – „aber nur so lange, wie die Menge der von KI generierten Daten, die im Training verwendet wurden, auf einen bestimmten Schwellenwert begrenzt war.“

Autophagische Störung nicht auf KI-Bilder beschränkt

Dieser „selbstverzehrende“ Mechanismus ist nicht auf Bilder beschränkt, sondern kann alle KI-Modelle betreffen, auch große Sprachmodelle: Sie „neigen […] dazu, MAD zu werden, wenn sie mit ihren eigenen Ausgaben trainiert werden“, schreibt Francisco Pires für das Portal Tomshardware.com. Derlei Forschung biete eine Möglichkeit, „in die Blackbox der KI-Entwicklung zu blicken. Und sie zerschmettert jede Hoffnung, dass wir eine endlose Quelle von Daten gefunden hatten, indem wir aus bestimmten KI-Modellen ein Hamsterrad gemacht hatten: es mit Daten zu versorgen und dann seine eigenen Daten wieder einzuspeisen, um mehr Daten zu generieren, die dann wieder zurückgesandt werden.“

Zu diesem Schluss kommen auch die Forscher:innen der Rice University: „Unsere wichtigste Schlussfolgerung für alle Szenarien ist, dass künftige generative Modelle ohne genügend neue reale Daten in jeder Generation […] dazu verdammt sind, in ihrer Qualität oder Vielfalt immer weiter abzunehmen.“

Fast fertig!

Bitte klicke auf den Link in der Bestätigungsmail, um deine Anmeldung abzuschließen.

Du willst noch weitere Infos zum Newsletter? Jetzt mehr erfahren

Anzeige
Anzeige
Schreib den ersten Kommentar!
Bitte beachte unsere Community-Richtlinien

Wir freuen uns über kontroverse Diskussionen, die gerne auch mal hitzig geführt werden dürfen. Beleidigende, grob anstößige, rassistische und strafrechtlich relevante Äußerungen und Beiträge tolerieren wir nicht. Bitte achte darauf, dass du keine Texte veröffentlichst, für die du keine ausdrückliche Erlaubnis des Urhebers hast. Ebenfalls nicht erlaubt ist der Missbrauch der Webangebote unter t3n.de als Werbeplattform. Die Nennung von Produktnamen, Herstellern, Dienstleistern und Websites ist nur dann zulässig, wenn damit nicht vorrangig der Zweck der Werbung verfolgt wird. Wir behalten uns vor, Beiträge, die diese Regeln verletzen, zu löschen und Accounts zeitweilig oder auf Dauer zu sperren.

Trotz all dieser notwendigen Regeln: Diskutiere kontrovers, sage anderen deine Meinung, trage mit weiterführenden Informationen zum Wissensaustausch bei, aber bleibe dabei fair und respektiere die Meinung anderer. Wir wünschen Dir viel Spaß mit den Webangeboten von t3n und freuen uns auf spannende Beiträge.

Dein t3n-Team

Melde dich mit deinem t3n Account an oder fülle die unteren Felder aus.

Bitte schalte deinen Adblocker für t3n.de aus!
Hallo und herzlich willkommen bei t3n!

Bitte schalte deinen Adblocker für t3n.de aus, um diesen Artikel zu lesen.

Wir sind ein unabhängiger Publisher mit einem Team von mehr als 75 fantastischen Menschen, aber ohne riesigen Konzern im Rücken. Banner und ähnliche Werbemittel sind für unsere Finanzierung sehr wichtig.

Schon jetzt und im Namen der gesamten t3n-Crew: vielen Dank für deine Unterstützung! 🙌

Deine t3n-Crew

Anleitung zur Deaktivierung
Artikel merken

Bitte melde dich an, um diesen Artikel in deiner persönlichen Merkliste auf t3n zu speichern.

Jetzt registrieren und merken

Du hast schon einen t3n-Account? Hier anmelden

oder
Auf Mastodon teilen

Gib die URL deiner Mastodon-Instanz ein, um den Artikel zu teilen.

Anzeige
Anzeige