top of page

Come funziona l'algoritmo dietro la Super Risoluzione di Google? Lo spiega questo video di 3 min


Per poter venire incontro alle esigenze commerciali e di design, gli ingegneri sono obbligati a mignaturizzare sempre più sensori e moduli, cercando di riuscire a far entrare tutte le nuove tecnologie all'interno degli smartphone di ultima generazione.


I produttori hanno quindi intensificato la ricerca sull'imaging computazionale per migliorare la qualità dell'output dell'immagine dei propri dispositivi.


L'algoritmo della super risoluzione di Google fa parte di questi studi e nello specifico si tratta nello scattare una raffica di foto raw ogni volta che si preme il pulsante di scatto e attraverso il naturale tremolio della mano dell'utente, anche se molto leggero, raccoglie informazioni aggiuntive per una migliore realizzazione dell'immagine.


Le differenze a livello di pixel tra ciascuno degli scatti in raw vengono utilizzati per unire più immagini in un file di output unico con dettagli ottimizzati in ogni posizione dei pixel.


Un'illustrazione che mostra come sono allineati più fotogrammi per creare l'immagine finale.

 

Google utilizza questa tecnologia nella funzione Night Sight e lo nella funzione zoom Super-Res dei dispositivi Pixel 3 pubblicando in precedenza un approfondito articolo sul suo blog.



Una rappresentazione dei passaggi utilizzati per creare l'immagine finale da una raffica di immagini Raw.

 

bottom of page