Apple testet die Deep Fusion-Kamerafunktion in iPhone 11 und iPhone 11 Pro in der Beta-Version von iOS 13

Apple hat iOS 13 in Rekordtempo aktualisiert, um teilweise neue Funktionen hinzuzufügen, vor allem aber, um Fehler zu beheben.

Dies bedeutet jedoch nicht, dass zusätzliche Funktionen noch nicht in Sicht sind. Zum Beispiel die Deep Fusion-Kamerafunktion, die Apple auf seiner diesjährigen Veranstaltung „by innovation only“ zusammen mit dem iPhone 11 und dem iPhone 11 Pro angekündigt hat. Apple hat immer angekündigt, dass die Funktion zu einem späteren Zeitpunkt mit einem anschließenden Software-Update auf iOS 13 gestartet wird. Jetzt ist die Funktion in der Beta-Phase.

Der Rand In dem heute veröffentlichten Bericht wird erläutert, wie Apple an der bevorstehenden Veröffentlichung von Deep Fusion arbeitet und wie das Feature die bereits beeindruckenden Kameras in Apples neuesten Flaggschiff-Smartphones noch besser macht.

Das Ergebnis eines mit Deep Fusion aufgenommenen Fotos sehen Sie in der Abbildung oben in diesem Artikel.

Deep Fusion ist eine wichtige Funktion für Bilder mit mittlerem bis niedrigem Licht. Diese Funktion läuft vollständig im Hintergrund und optimiert und verbessert die Bilder, während der Besitzer des iPhone 11/11 Pro unterwegs Fotos macht.

Der Bericht enthält eine detaillierte Beschreibung der Funktionsweise im Hintergrund:

  1. Wenn Sie den Auslöser drücken, hat die Kamera bereits drei Bilder mit einer kurzen Verschlusszeit aufgenommen, um die Bewegung in der Aufnahme einzufrieren. Wenn Sie auf den Auslöser drücken, werden drei zusätzliche Aufnahmen gemacht und dann eine längere Belichtung, um Details zu erfassen.
  2. Diese drei regulären Aufnahmen und die Langzeitbelichtung werden zu einem von Apple als "synthetisch" bezeichneten Long zusammengeführt. Dies ist ein wesentlicher Unterschied zu Smart HDR.
  3. Deep Fusion nimmt das kurzbelichtete Bild mit den meisten Details auf und führt es mit der synthetischen Langzeitbelichtung zusammen. Im Gegensatz zu Smart HDR werden bei Deep Fusion nur diese beiden Bilder zusammengeführt, nicht mehr. Diese beiden Bilder werden auch anders als bei Smart HDR auf Rauschen hin verarbeitet, was für Deep Fusion besser ist.
  4. Die Bilder durchlaufen vier Pixel für Pixel aufbereitete Detailverarbeitungsschritte, von denen jeder auf eine zunehmende Detailgenauigkeit zugeschnitten ist - der Himmel und die Wände befinden sich im untersten Bereich, während Haut, Haare, Stoffe usw. auf der höchsten Ebene liegen. Dies erzeugt eine Reihe von Gewichtungen für das Mischen der beiden Bilder - wobei Details von einem und Ton, Farbe und Luminanz vom anderen übernommen werden.
  5. Das endgültige Bild wird generiert.

Laut dem Bericht wird das Teleobjektiv hauptsächlich Deep Fusion verwenden, wobei die Smart HDR-Funktion nur bei sehr hellen Szenen die Aufnahme übernimmt. Das Standard-Weitwinkelobjektiv wird sich in der Zwischenzeit hauptsächlich auf die Smart HDR-Funktion für helle bis mittelhelle Szenen stützen, und Deep Fusion wird für Szenen mit mittlerem bis niedrigem Licht eingesetzt. Das Ultra-Weitwinkelobjektiv verwendet niemals den Deep Fusion- oder Nachtmodus, da es nur die Smart HDR-Funktion und keine der anderen Funktionen unterstützt.

Der Nachtmodus wird in einem Szenario mit schlechten Lichtverhältnissen immer aktiviert und die Hauptfunktion sein.

Wie in dem Bericht erwähnt, testet Apple das Feature derzeit in einer Beta-Version von iOS 13. Diese Beta-Version ist jedoch derzeit weder für Entwickler noch für öffentliche Beta-Tester verfügbar. Apple wird diese erste Beta wahrscheinlich irgendwann in Kürze mit Deep Fusion einführen, möglicherweise sogar später als iOS 13.2.

Freuen Sie sich auf die Ankunft von Deep Fusion?