Che senso ha fotografare qualcosa se poi questo viene elaborato, modificato e omologato?
Aggiornamento: 1 giu 2023
Quando vengono proposte nuove tecnologie normalmente ci si divide in tre gruppi: quelli che ne sono entusiasti, i detrattori che ne vedono esclusivamente i lati negativi e chi ne apprezza i pregi, ma ne evidenza i difetti.
Quando è comparsa la "fotografia computazionale"negli smartphone di alta gamma c'era chi chiedeva a gran voce di inserirla anche nelle fotocamere "tradizionali", chi ha gridato allo scandalo e chi si è trovato nel mezzo.
Personalmente credo di trovarmi, con mio stupore, nella posizione a tre quarti a favore dei detrattori. Non tanto per l'uso della tecnologia a supporto dello scatto in sè, ma più che altro verso l'uso che se ne sta facendo e la dialettica che le case produttrici portano avanti.
In questi ultimi anni si è parlato molto dell'integrazione della fotografia computazionale e della Intelligenza Artificiale (termine usato a sproposito e normalmente equivocato) negli smartphone e non solo. Tra la molta confusione dei termini e dalla coltre di informazioni errate è trapelato a mio avviso un messaggio sbagliato al pubblico.
Il caso più eclatante, che sta suscitando molte polemiche, è quello del Samsung S23 e la sua funzione Scene Optimizer con Zoom 100x, soprattutto quando utilizzata per scattare foto al nostro satellite, la Luna.
Il caso è stato aperto da un utente di Reddit che in una discussione aveva postato una immagine, in cui mostrava lo scatto di una foto a una foto di una Luna sfocata, riportando vicino il risultato che il suo Samsung S23 aveva elaborato :
A sinistra l'immagine sfocata, soggetto dello scatto. A destra la fotografia realizzata dallo smartphone
La funzione rende possibile restituire una immagine molto definita della Luna attraverso una serie di passaggi che la stessa Samsung spiega così, in sintesi :
"dal Galaxy S21, quando scatti una foto della luna, l'ai riconosce il bersaglio come la luna attraverso i dati appresi, la sintesi multi-frame e la tecnologia ai basata sull'apprendimento profondo al momento dello scatto. l'immagine più chiara viene applicata."
In pratica la fotografia scattata viene "corretta" dopo che il soggetto è stato "riconosciuto". Samsung non nasconde il processo, anzi lo analizza e lo rende pubblico attraverso una delle sue pagine ufficiali che potete trovare a questo link .
Il processo viene spiegato così:
"Per scattare foto nitide della luna, la tecnologia Super Resolution, che sintetizza più di 10 immagini in un ambiente ad alto ingrandimento di 25 volte o più e crea un'immagine a bassa risoluzione in un'immagine ad alta risoluzione, migliora il deterioramento della qualità dell'immagine causato dallo zoom digitale, rimuove il rumore e migliora la nitidezza e il dettaglio . In altre parole, quando la ripresa ottimale per ogni scena è disattivata, vengono forniti solo i risultati che utilizzano la tecnologia Super Resolution ad alto ingrandimento. Se la luna viene riconosciuta mentre lo scatto ottimale per ogni scena è On -> Il risultato utilizzando la tecnologia Super Resolution ad alto ingrandimento + motore di miglioramento dei dettagli AI basato sull'apprendimento profondo completa un'immagine lunare luminosa e chiara."
In pratica attraverso un processo di Deep Learnig la AI utilizzata è stata "addestrata" a riconoscere le regioni della Luna e le sue fasi per permettergli poi di andare a definire l'immagine scattata e migliorarla, ma esclusivamente dopo uno zoom di 25x. A questo punto viene regolata la luminosità, e qui samsung ammette addirittura che :
"Se scatti la luna in prima serata, il cielo intorno alla luna non è del colore del cielo che vedi con i tuoi occhi, ma è ripreso come un cielo nero."
Quindi a questo punto abbiamo, una Luna riconosciuto da una AI solo dopo il 25x e un cielo sostituito con uno "nero". Ma se ci si spinge oltre lo zoom 25x e si arriva al 100x ci si espone a un nuovo problema, quello dello "spostamento della Luna" che si muove nella volta celeste anche ad una velocità notevole direi. Inoltre aumentano notevolmente le vibrazioni, che vengono compensate dallo Zoom Lock, una funzione che combina le tecnologie OIS e VDIS per massimizzare la stabilizzazione dell'immagine.
Infine il software gestisce l'immagine ulteriormente e decide come migliorarla, attraverso quello che possiamo chiamare "archivio" della AI.
Samsung conclude la sua spiegazione con una frase che secondo me dice molto :
※ L'immagine della luna chiara viene applicata solo quando la luna viene riconosciuta.
Stiamo facendo del nostro meglio per non riconoscere erroneamente oggetti diversi dalla luna reale e stiamo migliorando continuamente.
Quindi, che senso ha fotografare qualcosa se poi questo viene elaborato, modificato e omologato?
Attraverso le dichiarazioni di Samsung e quindi non supposizioni, possiamo dire che la fotografia computazionale, combinata con la cosi detta AI, alterano lo scatto, proponendo un artefatto plausibile di quello che stiamo vedendo.
Per questo posso dirmi più vicino ai detrattori di questa tecnologia, poiché applicata non per supportare, ma per omologare, per eliminare le diversità e lasciare esclusivamente il risultato a una elaborazione decisa da "if" e "or" di un software.
Sono un estimatore dei difetti, degli errori, delle diversità, ogni scatto dovrebbe essere diverso, unico. Il ricordo del momento, la personale esperienza, se neanche il cielo sotto le stelle è più lo stesso di quel momento, ma un mero elaborato, che senso ha immortalarlo?
Comments