Migliorare la qualità delle foto
L’intelligenza artificiale ha migliorato la qualità delle foto scattate dagli smartphone, ma non è ancora in grado di fare miracoli. Il primo prototipo di fotocamera digitale fu presentato nel 1975 da Steven Sasson, un ingegnere di Kodak, e non divenne mai un prodotto perché la risoluzione era troppo bassa per ottenere foto di qualità accettabile: 0,08 Megapixel (320×240 pixel). Pochi anni dopo, nel 1981, Sony lanciò sul mercato la sua prima fotocamera digitale: la Mavica da 0,28 MP (570×490) che registrava le immagini su floppy disk. Ancora qualche anno dopo, nel 1994, uscì la Apple QuickTake 100 da 0,3 MP (640×480), che non fu affatto un successo commerciale.
Oggi le cose sono completamente cambiate: Kodak è cambiata molto, Apple produce ogni anno un nuovo iPhone affermando che fa le foto migliori del mondo, ma compra i sensori fotografici da Sony. Fiumi di pixel sono passati sotto i ponti ma, ancora oggi, l’esigenza è sempre la stessa del 1975: migliorare, in continuazione, la qualità di immagini e video.
Lo si sta facendo in due modi: migliorando i sensori e migliorando gli algoritmi di elaborazione delle immagini. Ma c’è qualcosa che, almeno in teoria, non è ancora possibile fare: inventarsi i pixel se i pixel non ci sono. Per questo sono stati messi a punto dei sistemi molto evoluti per migliorare le immagini già scattate e i video già girati la cui qualità non è sufficiente. Gran parte di questi sistemi provengono dal mondo dell’informatica forense, ma sono ormai entrati anche nel mondo dell’elettronica di largo consumo.
Il problema legale delle immagini sgranate
Il mondo è pieno di telecamere di sorveglianza, attive 24 ore su 24, che registrano 24 o 30 fotogrammi al secondo. La maggior parte delle telecamere già installate nel mondo ha una risoluzione FullHD (1920×1080) o inferiore, anche se i nuovi prodotti arrivano anche a 4K. Fino a qualche anno fa, però, moltissime telecamere avevano la risoluzione VGA classica, cioè 640×480 pixel, ed erano anche in bianco e nero. Con una risoluzione del genere un viso ripreso tra la folla in un tunnel della metropolitana, se fosse andato bene, sarebbe rientrato in un francobollo da 50×25 pixel. E non era neanche detto che il viso fosse perfettamente a fuoco, perché la videocamera non disponeva di ottiche sofisticate come quelle di oggi, con messa a fuoco multi-point.
Ma da quel francobollo i periti informatici che lavoravano con i tribunali dovevano fare uscire un volto e, soprattutto un’identità. Il primo passo era quello di prendere il fotogramma ed elaborarlo con un normale software di fotoritocco: giocando con luci, ombre ed esposizione era possibile tirare fuori qualche dettaglio in più. L’affidabilità di metodi del genere era decisamente poca e i risultati altalenanti. Ben presto, però, la situazione è cambiata.
I sistemi moderni per migliorare le immagini
Nel corso degli anni le videocamere di sorveglianza sono state sostituite con modelli dalla risoluzione superiore, a colori e spesso anche a infrarossi (cosa che risulta importantissima in condizioni di poca luce). Sono anche state introdotte sofisticate tecniche di interpolazione che ricostruiscono i pixel inesistenti basandosi su quelli più vicini, e questo aumenta virtualmente la risoluzione di un dettaglio. Parallelamente sono stati sviluppati e allenati (a volte con metodi non del tutto trasparenti, come nel caso MegaFace) dei potenti algoritmi di riconoscimento facciale che riescono a lavorare anche con immagini non molto definite.
Questi sistemi per migliorare la qualità di una videoripresa o di una foto e ricostruire i volti di chi è inquadrato sono oggi usati da molte forze di polizia e sono realizzati dai big dell’industria tecnologica: Amazon, IBM, Microsoft. Tuttavia, tali sistemi non sono ancora perfetti al 100%, anzi: Joy Buolamwini, una ricercatrice del MIT Media Lab, ha fondato la Algorithmic Justice League per superare il “pregiudizio del software”. Dopo accurate analisi, infatti, la Buolamwini ha scoperto qualcosa che ha scosso l’industria del riconoscimento facciale.
Algorithmic Justice League: l’algoritmo è razzista e sessista
Analizzando l’efficacia del sistema Amazon Rekognition, la ricercatrice ha scoperto che esso risulta accurato nel 100% dei casi se la persona inquadrata è un maschio dalla pelle bianca, mentre la percentuale scende al 98,7% in caso di maschio di colore, al 92,9% in caso di femmina bianca e addirittura al 68,6% se la persona inquadrata è una donna dalla pelle scura.
Ciò vuol dire che una donna di colore ha il 31,2% di possibilità di essere accusata ingiustamente per colpa dell’algoritmo di Amazon e che una donna bianca ha il 7,1% di possibilità. In altre parole, l’algoritmo è contemporaneamente sia razzista che sessista. Ciò è dovuto, molto probabilmente, sia al fatto che tale sistema è stato allenato con poche foto di donne (e ancor meno foto di donne di colore), sia al fatto che la pelle scura impedisce ad una telecamera dalla risoluzione non altissima di captare molti dettagli e un buon contrasto.
La scoperta di Joy Buolamwini ha costretto Amazon a sospendere per un anno la sua collaborazione con la polizia statunitense. Anche IBM e Microsoft hanno fatto lo stesso, in attesa di affinare i rispettivi algoritmi di riconoscimento facciale.
La risposta verrà dagli smartphone?
In attesa che Amazon, IBM e Microsoft affinino i loro algoritmi di riconoscimento facciale e di miglioramento della qualità delle immagini. altri protagonisti del mercato dell’elettronica continuano a lavorare su entrambi i fronti, ma senza entrare in ambiti così “scottanti”. I produttori di smartphone, ad esempio, hanno fatto enormi passi avanti negli ultimi anni e oggi sono in grado di offrire comparti fotografici dalle potenzialità impressionanti sui loro device.
Il Samsung Galaxy S20 Ultra, top di gamma del produttore coreano per il 2020, ha un sensore principale da 108 Megapixel e uno zoom ibrido ottico-digitale che arriva a 100X. Catturando moltissimi pixel il sensore Samsung riesce ad ingrandire così tanto le immagini, pur non essendo dotato di una lente 100X reale (ad oggi impossibile da inserire nelle dimensioni di uno smartphone). La soluzione, quindi, sta nell’offrire più pixel di quelli che andranno a finire nello scatto finale, che sarà una parte e un ritaglio dell’immagine complessiva.
Questa scelta fatta da Samsung, e anche da altri produttori, dimostra che con le tecnologie attuali non è possibile interpolare (cioè inventare) dei pixel e, allo stesso tempo, mantenere una buona affidabilità. Al contrario, per avere un buon risultato i pixel ripresi devono essere di più di quelli effettivamente utilizzati. Detta in parole povere: per migliorare la qualità delle immagini riprese o fotografate ancora oggi la forza bruta funziona meglio dell’intelligenza artificiale.
I commenti sono disabilitati, ma trackbacks e pingbacks sono abilitati.