Per Google e MIT, il futuro delle fotocamere non è nel sensore, ma nel software (foto e video)

Andrea Centorrino -

Paragonando il sensore fotografico di uno smartphone di oggi ad uno di 5 anni fa, non bisogna essere dei professionisti per notare i grandi passi in avanti fatti nel settore: tuttavia, man mano che i dispositivi diventano più compatti e sottili, diventa difficile sviluppare fotocamere sempre migliori. Google e MIT lavorano allora ad un nuovo approccio: migliorare non il sensore, ma il software che elabora l’immagine catturata.

Com’è noto, più che dal numero di megapixel, la qualità di un sensore dipende dalla dimensione dei pixel stessi: più sono grandi, più luce riescono a catturare, generando un’immagine migliore, specie in condizioni di scarsa illuminazione. La necessità di realizzare fotocamere compatte, però, ha portato allo studio di altre soluzioni, come le dual-camera sempre più diffuse fra gli smartphone di fascia alta.

Grazie al machine learning ed alle reti neurali, gli ingegneri Google e quelli del MIT hanno realizzato un algoritmo che, sulla base di un campione di 5.000 foto ritoccate da Adobe e dal MIT stesso, permette di ritoccare i nuovi scatti “al volo”, direttamente al momento dell’inquadratura del soggetto, in modo da avere un’anteprima in tempo reale. In pratica, sulla base di scatti simili, il software “sa” quale parte dell’immagine modificare, per correggere, ad esempio, una sottoesposizione o per dare risalto ad un determinato particolare.

Non è la prima volta che si tenta un approccio simile (anche la famosa Prisma, per certi versi, si basa su un sistema analogo), ma questo è il primo che permette di eseguire l’elaborazione in tempi estremamente ridotti (in tempo reale) direttamente sul dispositivo: la dimensione del software, infatti, non supera quello di un singolo scatto fotografico (probabilmente non in formato RAW – NdR).

This technology has the potential to be very useful for real-time image enhancement on mobile platforms. Using machine learning for computational photography is an exciting prospect but is limited by the severe computational and power constraints of mobile phones. This paper may provide us with a way to sidestep these issues and produce new, compelling, real-time photographic experiences without draining your battery or giving you a laggy viewfinder experience.

Jon Barron, Google

LEGGI ANCHE: Anche Google al lavoro sui filtri basati sul machine learning

Difficilmente vedremo questa tecnologia impiegata nei prossimi Pixel 2, ma non è escluso che non la vedremo in un futuro prossimo: secondo Marc Levoy, capo della divisione di fotografia computazionale Google, questa è “solo la punta dell’iceberg”. Per maggiori informazioni vi rimandiamo alla fonte (in inglese) ed al video che trovate in basso.

Via: The VergeFonte: MIT News