Google: ecco l'algoritmo che svela i dettagli mancanti dalle foto pixellate

Google: ecco l'algoritmo che svela i dettagli mancanti dalle foto pixellate

Lo faceva Rick Deckard nel famoso film Blade Runner, ma da oggi lo si potrà fare davvero grazie a Google. Grazie alle reti neurali è possibile trasformare immagini praticamente indistinguibili in dettagliate e chiaramente leggibili. Ecco come è possibile.

di Bruno Mucciarelli pubblicata il , alle 10:31 nel canale Scienza e tecnologia
Google
 

L'intelligenza artificiale ancora una volta aiuta l'uomo. Sì perché grazie ad alcune reti neurali, Google, è riuscita ad emulare quello che il famoso poliziotto di Blade Runner, Rick Deckard, faceva durante il film di Ridley Scott. Essenzialmente grazie ad alcuni comandi vocali era possibile, nella pellicola, analizzare uno scatto fotografico nei minimi dettagli zoomando all'inverosimile senza perdere però qualità nell'immagine. Ebbene tutto questo da oggi potrà essere effettuato anche nella realtà grazie all'algoritmo che proprio l'azienda di Mountain View è riuscita a realizzare.

Google Brain è il dipartimento per le ricerche sull'intelligenza artificiale ed è proprio da loro che è scaturita l'idea di realizzare un programma che permettesse di rendere leggibile una macchia di colori in una vera e propria immagine dettagliata. Il lavoro che sta dietro a tutto questo è chiaramente enorme ma il suo funzionamento sembra essere, almeno a parole, quasi naturale. Sì perché effettivamente quello che avviene è ciò che in qualche modo viene realizzato dal cervello umano.

Tecnicamente ci si trova di fronte a due reti neurali che lavorano prima individualmente e poi in simultanea. Ad esse vengono fatte osservare una moltitudine di immagini che ritraggono volti umani e successivamente una rete neurale inizia a confrontare un'immagine pixellata (8x8 pixel) e dunque a bassissima risoluzione con tutte quelle che ha immagazzinato precedentemente. A questo punto entra in gioco la seconda rete neurale che aumenta la risoluzione dell'immagine a 32x32 pixel ma soprattutto inserisce dettagli mancanti. Tutto questo permette di tradurre immagini praticamente illegibili in foto segnaletichedove è possibile riconoscere il volto del soggetto presente.

Insomma il miglioramento e il riconoscimento delle immagini è senza dubbio un settore in cui la tecnologia potrà farla da padrona e dove proprio i colossi come Google vogliono mettere mano. Proprio l'azienda di Mountain View non sembra essere la prima a cimentarsi in questo campo visto l'annuncio di Facebook con Lumos, la piattaforma per il riconoscimento delle immagini e dei video. E' chiaro che il lavoro è ancora lungo e tali algoritmi non potranno ancora prendere il posto degli umani ma è chiaro come gli sviluppi dell'intelligenza artificiale potranno permettere buone cose sulla sicurezza e chissà magari ai livelli di Blade Runner.

Resta aggiornato sulle ultime offerte

Ricevi comodamente via email le segnalazioni della redazione di Hardware Upgrade sui prodotti tecnologici in offerta più interessanti per te

Quando invii il modulo, controlla la tua inbox per confermare l'iscrizione

25 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
giovanni6911 Febbraio 2017, 11:23 #1
Certo... sulla sicurezza e per taggare tutte le foto degli utenti presenti sul loro cloud. Vedi QUI.
frankie11 Febbraio 2017, 11:30 #2
Ad Harold Finch piace questo elemento
Nones11 Febbraio 2017, 12:40 #3
Originariamente inviato da: frankie
Ad Harold Finch piace questo elemento


Samantha Groves alias "Root" approves this post.
sintopatataelettronica11 Febbraio 2017, 13:06 #4
la cosa più assurda nei telefilm è quando zoomano.. e da 4 blocchettoni uniformi grossi 100000 pixel ognuno.. tirano fuori tutti i numeri della targa xD
sbaffo11 Febbraio 2017, 17:26 #5
da 8x8 pixel puoi tirar fuori quello che ti pare, al massimo vedi se è un bianco o un nero. Se poi aggiunge pezzi di altre immagini siamo a posto... quando verranno ad arrestarvi in base ad una di queste "foto segnaletiche" voglio proprio vedere...
sterock7711 Febbraio 2017, 22:13 #6
Da un immagine 8*8 i dettagli se li inventano in base a cosa ? Se il mio naso è di due pixel , se ho un anellino ad una narice come lo ricreano ?
danik211 Febbraio 2017, 22:33 #7
Finalmente si potranno vedere come si deve i porno/hentai giapponesi !!!
demos8811 Febbraio 2017, 23:38 #8
Originariamente inviato da: danik2
Finalmente si potranno vedere come si deve i porno/hentai giapponesi !!!

Basta che non si usino i giapponesi come ground truth, non funzionerebbero.
Nautilu$12 Febbraio 2017, 11:19 #9
da 8x8 pixel secondo me potrebbero tirar fuori una faccia anche da un c*lo di un maiale!
Molto utile!
cdimauro12 Febbraio 2017, 11:21 #10
Infatti. Roba del tutto inutile.

Discorso completamente diverso se fosse applicato a un filmato dove, pur a bassa risoluzione, utilizzando più fotogrammi dello stesso soggetto (in movimento e/o da angolazioni diverse) è possibile ottenere qualche dettaglio in più. Ma non è questo il caso.

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^