Zeroth SceneDetect: con il deep learning Qualcomm Snapdragon diventa più intelligente

Zeroth SceneDetect: con il deep learning Qualcomm Snapdragon diventa più intelligente

Qualcomm Zeroth è ispirato al funzionamento del nostro cervello e utilizzando tecniche di 'Deep Learning' analizza quello che trova di fronte a sé andando alla ricerca di schemi conosciuti ed elencando quello che riesce a vedere: abbiamo contattato Qualcomm per un approfondimento sui possibili sviluppi della tecnologia

di Roberto Colombo pubblicato il nel canale Scienza e tecnologia
Qualcomm
 

Deep Convolutional Neural Network: per rendere i dispositivi mobile intelligenti

Qualche tempo fa Qualcomm ha rilasciato un breve video per mostrare le potenzialità di Zeroth, un'implementazione tecnologica che rende la fotocamere di uno smartphone 'intelligente' in grado di riconoscere scene e oggetti che gli si parano davanti. La tecnologia ha riscosso molti interesse da parte dei nostri utenti, uno di essi ci ha scritto per avere maggiori dettagli. Abbiamo contattato Fabio Iaione, Country Manager Italy, Business Development Sr Director di Qualcomm, per avere una panoramica più approfondita delle tecnologia, del suo funzionamento e delle sue potenzialità.

1) Come funziona in dettaglio il deep learning del sistema?

I deep network (conosciuti anche come Deep Convolutional Neural Network) hanno dimostrato di essere la soluzione migliore per numerosi problemi. Nello specifico, garantiscono risultati eccezionali quando vengono applicati a problemi relativi alla classificazione delle immagini. L’implementazione del deep learning di Zeroth è progettata per eseguire in modo efficiente sul processore Snapdragon deep network e network neurali strettamente connessi, sfruttando l’intero SoC (CPU, DSP, GPU) e le ottimizzazioni specifiche di Snapdragon. Al momento, Snapdragon SceneDetect è la prima applicazione che, grazie alle capacità di Zeroth, è in grado di eseguire efficientemente questi network neurali su processori mobile.

Il funzionamento di questi sistemi è basato sull’addestramento per esempi del network neurale. In altre parole, al sistema vengono mostrate diversi milioni di immagini a titolo di esempio e gli viene spiegato che cosa ciascuna di esse rappresenti, come ad esempio un “gatto”, un “cane”, una “spiaggia”, ecc. Questo processo di addestramento si svolge off-device. Il modello neurale “allenato” che ne deriva è ulteriormente ottimizzato per le tecniche sviluppate da Qualcomm per l’utilizzo mobile. 

Il modello che ne risulta può essere caricato su Snapdragon ed eseguito in modo efficiente. Il processo di esecuzione comprende i seguenti passaggi: mostrare al sistema la fotografia di un elemento non ancora conosciuto, far analizzare l’immagine dal network neurale, il quale successivamente indicherà le categorie che pensa siano rappresentate nell’immagine. Quindi, per esempio, viene mostrata una fotografia di una spiaggia al tramonto che non faceva parte della sessione di training. Il sistema indica le categorie “spiaggia”, “spazi aperti” e “tramonto”. Queste informazioni possono poi essere utilizzate per categorizzare l’immagine o abilitare le ricerche. Successivamente, quando si desidera trovare tutte le fotografie di spiagge o di tramonti, il sistema sa che cosa è rappresentato nell’immagine perché, usando il network neurale addestrato, è in grado di comprenderlo.

 
^