L’algoritmo di Google ricostruisce le foto pixellate come in Blade Runner

Due reti neurali riescono a trasformare delle macchie di colore in immagini, riproducendo i dettagli mancanti: ma sono davvero uguali a quelli originali?

Google emula «Blade Runner». Grazie all’intelligenza artificiale, ora Big G è in grado di ricostruire le foto e migliorarne la risoluzione: immagini pixelate e irriconoscibili diventano vere e proprie foto come accadeva nella celebre pellicola di Ridley Scott. Tutti ricorderanno la scena di cui ci riferiamo. Il poliziotto Rick Deckard è seduto di fronte a un monitor e, grazie ai comandi vocali, analizza un’immagine realizzando continui ingrandimenti che gli consentono di vedere dettagli indistinguibili a occhio nudo. Il programma realizzato da Google Brain, il dipartimento dell’azienda specializzato in intelligenza artificiale, fa lo stesso. Grazie a due reti neurali, una combinazione di hardware e software che imita il cervello umano, l’algoritmo trasforma una foto di soli 8×8 pixel in un’immagine leggibile. La foto, prima di essere lavorata ci appare solo una macchia di colore. Immaginiamo un volto e ora proviamo a suddividerlo in un reticolato di soli otto quadratini in larghezza per otto in larghezza. È un pastrocchio. Ed è proprio qui che entra in gioco l’algoritmo.

Come funziona

La prima rete neurale confronta l’immagine colma di quadratini con altre immagini ad alta risoluzione. Riduce poi le seconde a dei reticolati di otto per otto e mappa i diversi quadratini cercando di rilevare le somiglianze. Vede, semplificando, se in quel pixel c’è occhio o una guancia, una mattonella o una strada. Fatti i debiti raffronti ecco intervenire la seconda rete che aggiunge dei pixel all’immagine rendendola più leggibile. È questa la trovata: la rete neurale è in grado di distinguere ciò che vede e aggiunge dettagli seguendo una linea logica. Ci imita. Se in un pixel distingue un occhio fa in modo che aggiungendo dettagli si veda la pupilla, se vede un labbro fa apparire i denti. Il risultato è un file di 32 per 32 pixel: è ancora molto carente come risoluzione ma già consente di distinguere se il soggetto ritratto nella macchia di colore è un uomo o una donna, il colore della pelle e degli occhi e perfino l’espressione.

Più dettagli (ma sono veri?)

Alla fine i risultati di entrambe le reti vengono uniti tra loro ed ecco la fine di questo lungo e complicato processo: la foto finale appare ancora pixelata ma ha molti dettagli in più. Il viso celato dietro la macchia di colore ora è distinguibile, possiamo dire senza dubbio se si stratta di un nostro parente o di un divo famoso. Google stessa ha provato la tecnica portando come giudici degli umani e la maggior parte di loro non ha saputo distinguere l’immagine prodotta dall’algoritmo con quella reale nonostante la prima sia del tutto irreale. Va sottolineato infatti che è la rete neurale a produrre l’immagine: è frutto di un suo processo. Nella realtà l’immagine di partenza è e rimane una macchia di colore.

Il futuro utilizzo nella sicurezza

A questo punto è facile immaginare dove porterà la nuova tecnologia. Il collegamento più immediato è con la sicurezza. Un algoritmo del genere potrà ricostruire le immagini estrapolate dalle telecamere di sicurezza nel caso di un crimine. Basterà dargli in pasto un fotogramma del filmato e, per quanto sgranato, la macchina potrà identificare il criminale. Ovviamente si sta parlando del futuro e non sono pochi i dubbi a livello legale: l’immagine rimane comunque un artefatto dell’intelligenza artificiale e la giurisprudenza dovrà lavorare parecchio per trasformare il prodotto di una macchina in un elemento probatorio. «Blade Runner», insomma, è ancora lontano ma ci stiamo avvicinando.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

* Checkbox Richiesta

*

Accetto