Deep Fusion: KI-Kamera für das iPhone 11 kommt in Entwickler-Beta von iOS 13

Apples iPhone 11 und 11 Pro werden bald die Kamera-KI Deep Fusion einsetzen können. (Foto: Apple)
Anlässlich der Vorstellung der neuen iPhones hatte Apple-Manager Phil Schiller Deep Fusion als „Computational Photography Mad Science“ bezeichnet und einige imposante Beispielfotos gezeigt. Das Feature ist eine der Funktionen, die Apple nicht direkt mit den neuen iPhones ausliefern konnte. Wie The Verge berichtet, hat es Deep Fusion nun in die Entwickler-Beta geschafft.
Deep Fusion funktioniert vollautomatisch
Das Feature soll die Leistung der ohnehin schon guten Kameras der neuen iPhone-Linie deutlich verbessern, ohne dabei sichtbar in Erscheinung zu treten. So ist Deep Fusion nicht etwa eine Einstellung in der Kamera-App, sondern eine Automatik, die algorithmisch gesteuert wird und sich in geeigneten Situationen selbsttätig zuschaltet.

Das soll Deep Fusion leisten. (Foto: Apple)
Auch der Nachtmodus ist eine Fotoverbesserung, die sich automatisch zuschaltet. Der Nutzer wird darüber indes visuell informiert und kann den Modus gezielt abschalten. Das geht bei Deep Fusion nicht. Die Verwendung des Features findet sich nicht einmal in den EXIF-Daten des jeweiligen Bildes.
Deep Fusion variiert je nach Kamera
Dabei unterscheidet sich der Einsatz von Deep Fusion in Abhängigkeit von der eingesetzten Kamera. Bei der Hauptkamera kommt für helle und mittlere Belichtungsverhältnisse Smart HDR zum Einsatz. Deep Fusion schaltet sich erst bei schwächer werdender Belichtung zu. Wenn es dann richtig dunkel wird, kommt der Nachtmodus zum Zuge.
Die Tele-Kamera des Pro-Modells soll weitgehend auf Deep Fusion setzen und nur bei sehr hellen Lichtverhältnissen auf Smart HDR schalten. Hier soll der Nachtmodus zudem nur bei sehr dunklen Szenen greifen. Die Weitwinkelkamera unterstützt weder Deep Fusion noch Nachtmodus und wird daher stets Smart HDR nutzen.
So funktioniert Deep Fusion
Die grundsätzliche Funktionsweise von Deep Fusion sieht vereinfacht so aus: Bevor der Nutzer den Auslöser betätigt, hat die Kamera bereits drei Bilder geschossen. Mit dem Betätigen des Auslösers werden drei weitere Bilder sowie eine Aufnahme mit längerer Belichtungsdauer erstellt. Diese letzten vier Aufnahmen führt die KI nun in ein Bild zusammen. Jetzt nimmt sich die KI noch ein Bild aus der ersten Belichtungsreihe und zwar das mit der höchsten Detaildichte. Dann durchläuft das Bild vier Prozessstufen, bei denen das Bild Pixel für Pixel durchgerechnet wird und zwar beginnend mit den groben Strukturen und dann immer detaillierter werdend. Am Ende steht das fertige Bild.
Da dieser Vorgang nachvollziehbarerweise länger dauert als die Verarbeitung eines normalen HDR-Bildes, kann Deep Fusion für Serienaufnahmen nie eingesetzt werden. Dafür ist der Prozess zu langsam.
Es ist zudem möglich, dass Nutzer Verzögerungen in der Darstellung der Bilder in der Camera-Roll bemerken werden. Hier wird während der laufenden Berechnungen eine weniger detaillierte Darstellung des Bildes gezeigt. Die Darstellung wechselt automatisch nach Fertigstellung der Berechnung.
Zu guter Letzt müssen wir Besitzern älterer iPhones noch die Hoffnung nehmen, das Feature könnte eventuell für ihre Geräte noch kommen. Deep Fusion benötigt zwingend den A13-Chip der aktuellsten iPhones und kann von daher nicht portiert werden.
Passend dazu: iPhone 11 (Pro): Das sagen die ersten Testberichte zu den neuen Apple-Phones