Wenn Bilder über Messenger verschickt werden, leidet oftmals die Qualität. Die Fotos kommen beim Empfänger in einer niedrigeren Auflösung an als das Original. Mithilfe von maschinellem Lernen haben Google-Forscher ein Modell entwickelt, das ein Bild mit geringer Auflösung in ein detailliertes Bild mit hoher Auflösung umwandelt. Dabei kann die „Super-Resolution“ in verschiedensten Bereichen angewendet werden. Die Aufgaben können von der Wiederherstellung alter Familienporträts bis hin zur Verbesserung medizinischer Bildsysteme reichen.
Wissenschaftler Jonathan Ho und Entwickler Chitwan Saharia posteten bereits Mitte Juli auf Googles AI-Blog zwei miteinander verbundene Ansätze, die die Grenzen der Bildsynthesequalität für Diffusionsmodelle verschieben. Ein Ansatz ist dabei die Super-Resolution via Repeated Refinements, genannt SR3. SR3 ist ein hochauflösendes Diffusionsmodell, das als Eingabe ein niedrig aufgelöstes Bild verwendet und ein entsprechendes hochauflösendes Bild aus dem reinen Bildrauschen erstellt. Also aus den Pixeln, die in Farbe und Helligkeit aufgrund der niedrigen Qualität von denen des eigentlichen Bildes abweichen.
SR3 geht den umgekehrten Weg
Das Modell wird auf einen Bildverfälschungsprozess trainiert, bei dem einem hochauflösenden Bild nach und nach Rauschen hinzugefügt wird, bis nur noch reines Rauschen übrig bleibt. So lernt die künstliche Intelligenz, diesen Prozess umzukehren. Beginnend mit reinem Rauschen wird das Rauschen schrittweise entfernt, um am Ende in Bild mit hoher Auflösung zu erhalten. SR3 ist in der Lage, Gesichter und natürliche Bilder Schritt für Schritt zu verbessern. Angefangen mit Bildern, die über eine Auflösung von gerade einmal vier bis acht Pixeln verfügen, über 64 mal 64 und 256 mal 256 lassen sich Fotos mit dem KI-Modell sogar bis auf 1.024 mal 1.024 hochskalieren.
„Mit SR3 haben wir die Leistung von Diffusionsmodellen bei Superauflösungs- und klassenbedingten Imagenet-Generierungs-Benchmarks auf den neuesten Stand der Technik gebracht. Wir freuen uns, die Grenzen von Diffusionsmodellen für eine Vielzahl von generativen Modellierungsproblemen weiter zu testen“, schreiben die beiden Wissenschaftler in ihrem Blogeintrag. „Computer, enhance“, bekannt aus Film und Fernsehen, ist jetzt Realität.