Qualche giorno fa abbiamo incontrato un nuovo termine tecnico: fotografia computazionale. Lo ha usato un ex vice presidente di Google parlando delle capacità fotografiche dell’iPhone 7 Plus. Apple sarebbe anni avanti Google per la capacità di iOS di sfruttare la fotocamera con il software.

Ma in che cosa consiste la fotografia computazionale? L’Università della California e il centro di ricerca NVIDIA hanno realizzato un documento scientifico che ne racconta le capacità.

In pratica l’uso delle lenti e la posizione del fotografo consentono di analizzare la scena suddividendola in tre piani. Scattato varie foto contemporaneamente si possono fondere i tre piani prendendo elementi tra le varie foto, ottenendo una sorta di somma degli elementi migliori di tutte le immagini.

Le fotocamere normali riescono ad usare una sola misura di focalizzazione dell’immagine, mentre la fotografia computazionale permette di usare una focale diversa per ogni piano, ottenendo un’immagine migliore.

Il video della ricerca mostra come si possono ottenere risultati diversi allontanando o avvicinando i piani tra di loro, ottenendo immagini impossibili con una normale fotocamera. Questo processo diventerà fondamentale per le fotocamere degli smartphone ed è interessante sapere che Apple è in prima linea con questa tecnologia.

Leave a comment

Cosa ne pensi?