24 Mio. Pixel, einzeln ausgewählt
Die nächste Beta startet: iOS 13.2 bringt „Deep Fusion“
Nach dem offenbar überstürzten Start von iOS 13, der hastig ausgeworfenen Aktualisierung auf iOS 13.1 und den anschließend in kurzer Folge ausgegebenen Punkt-Updates 13.1.1 und 13.1.2 kehrt Apples Betriebssystem-Abteilung nun langsam wieder zum gewohnten Fahrplan zurück.
Dieser nennt iOS 13.2 als nächste Haltestelle – die erste Beta steht interessierten Entwicklern nun zum Testen zur Verfügung.
Das nächste größere System-Update, bereitet die öffentliche Freigabe der auf dem iPhone-Event präsentierten „Deep Fusion“-Fotografie vor. Die softwaregestützte Kamera-Verbesserung, die Apples Phil Schiller als „computational photography mad science“ bezeichnete, soll zukünftig automatisch vom iPhone aktiviert werden und besitzt drei Betriebsmodi:
- Das Weitwinkelobjektiv verwendet Apples verbesserten „Smart HDR“-Modus in hellen bis mittleren Lichtverhältnissen. Deep Fusion kommt bei mittleren bis niedrigen Lichtverhältnisse zum Einsatz. Der Nachtmodus wird für dunkle Szenen aktiviert.
- Das Teleobjektiv wird hauptsächlich Deep Fusion verwenden und setzt „Smart HDR“ nur für sehr helle Szenen und den Nachtmodus für sehr dunkle Szenen ein.
- Der Ultraweitwinkel-Objektiv wird stets auf „Smart HDR“ setzen und unterstützt weder „Deep Fusion“ noch den Nachtmodus.
Deep Fusion kommt für die iPhone-Modelle iPhone 11, iPhone 11 Pro und iPhone 11 Pro Max.
24 Millionen Pixel, einzeln ausgewählt
Ist „Deep Fusion“ aktiv, passiert während Fotoaufnahme viel: Bereits vor dem Druck auf den Auslöser hat das iPhone vier Bilder mit kurzer Belichtung sowie vier mit langer Belichtung geknipst und erstellt zusätzlich eine länger belichtete Aufnahme, sobald der Auslöser greift. Die Bilder werden anschließen, Pixel für Pixel, miteinander verschmolzen und – so Apples Versprechen – holen dank maschinenlernender Algorithmen das bestmögliche Ergebnis aus der abgelichteten Szene heraus, ohne dabei künstlich zu wirken.