Il Deep Fusion degli iPhone 11 è il vero game changer di quest’anno

Deep Fusion - Foto di Tyler Stalman
Deep Fusion – Foto di Tyler Stalman

Qualche giorno fa un mio amico mi ha mostrato il suo nuovo iPhone 11 Pro. Ho subito iniziato a cercare tutte le nuove funzioni disponibili e mi sono accorto, in poco tempo, che queste riguardavano quasi esclusivamente la fotocamera. In fondo la novità principale di quest’anno è proprio la tripla fotocamera e il processore A13 Bionic in grado di sfruttarla a pieno.

Detta così sembrerebbe un aggiornamento abbastanza banale, anche considerando le mosse della concorrenza. Invece il cambiamento della resa fotografica rispetto allo scorso anno è evidente. Grazie al supporto del software, del machine learning e del processore si riesce ad ottenere un risultato molto simile a quello di una reflex.

Spesso sarà capitato anche a voi di scattare foto con l’iPhone e scoprire di avere delle zone poco definite, con l’effetto sfocato applicato male, con colori un po’ piatti e dettagli non evidenti. Si tratta di difetti dovuti al sensore della fotocamera di dimensioni contenute e dalle ottiche non molto grandi.

Apple ha provato, e secondo me è riuscita, a colmare queste limitazioni ottiche con il software. Questa tecnologia si chiama Deep Fusion ed è diventata disponibile da poco tempo mediante la prima beta di iOS 13.2 distribuita agli sviluppatori.

La tecnologia del Deep Fusion fu mostrata nel corso dell’ultimo Keynote della società a settembre. Spesso quando si osservano i materiali ufficiali si teme sempre che siano usate lenti aggiuntive e modifiche in post produzione. Per questo si tende ad attendere i test empirici fatti da chi ha accesso agli strumenti ed è indipendente da Apple.

Foto di Samovaro Vruslan
Foto di Samovaro Vruslan

Questi test sono arrivati e sono incredibili. Il risultato tra una foto senza Deep Fusion e una con questo sistema è evidente. Le zone indefinite non ci sono più e i dettagli sono maggiori. Visivamente le immagini sono migliori e la qualità superiore. Miglioramenti che si notano anche se si effettua lo zoom sulle foto, osservando contorni più definiti e meno rumore di fondo.

Ma come funziona? In pratica iOS 13.2 consente di sommare ben 9 immagini e fonderle tra di loro. Per velocizzare il processo il processore A13 Bionic somma le prime 8 immagini in tempo reale, aggiungendo la 9° con lo scatto finale. In questo modo quest’ultimo avrà lentezza zero e l’immagine viene processata in micro secondi.

La fusione profonda avviene proprio tra queste due grandi immagini: la prima (formata dalla somma delle prime 8) e la seconda. A questo punto il processore si occupa di controllare ogni singoli pixel e prendere i migliori delle due immagini, fondendoli in un solo scatto.

In totale si ottiene una foto da 24 milioni di pixel. Abbastanza per non perdere in qualità in caso di zoom e pronta per essere stampata in diversi formati. Cosa ne pensate del risultato?

zoom Deep Fusion - Foto di Tyler Stalman
zoom Deep Fusion – Foto di Tyler Stalman

Cosa ne pensi?