Qualcomm mostra le proprie sperimentazioni sulle reti neurali

Qualcomm mostra le proprie sperimentazioni sulle reti neurali

Le NPU, unità di processazione neurali, sono elementi di computazione che si basano sul modello di funzionamento del cervello umano. Qualcomm sta sperimentando alcune soluzioni, da utilizzare nel futuro anche nel proprio core business

di Andrea Bai pubblicata il , alle 12:31 nel canale Scienza e tecnologia
Qualcomm
 

In occasione della EmTech Conference organizzata a San Diego da MIT Technology Review Qualcomm ha avuto modo di illustrare alcuni passi avanti nel mondo delle unità di processazione neurale (NPU - Neural Processing Unit). Il CTO di Qualcomm, Matt Grob, ha descritto una nuova generazione di NPU e gli strumenti di progettazione che la compagnia spera di poter rendere ampiamente disponibili agli sviluppatori nel corso del prossimo anno.

Nel corso della conferenza Grob ha mostrato alcuni video di Zeroth Robot, così denominato in onore della Legge Zero della Robotica definita da Isaac Asimov nei suoi romanzi (Un robot non può recare danno all'umanità, né può permettere che, a causa del proprio mancato intervento, l'umanità riceva danno).

Questi robot sono basati non su un processore convenzionale ma su una NPU ispirata dalla biologia e modellata sui meccanismi di funzionamento del cervello umano. La NPU è stata realizzata in collaborazione con Brain Corp, la quale viene supportata finanziariamente da Qualcomm Ventures e porta avanti le proprie attività di ricerca all'interno degli stabilimenti Qualcomm.

I primi prototipi realizzati sono processori di immagini con capacità di apprendimento, invece che dipendere da complessi algoritmi scritti a mano, e offrono prestazioni comparabili ai migliori algoritmi di image processing scritti per i convenzionali computer di oggi. Qualcomm ha collaborato inoltre con il professor Eugenio Culurciello della Purdue University che sta utilizzando la suite di strumenti di sviluppo dedicati alle reti neurali per arrivare al riconoscimento in tempo reale di immagini di oggetti da auto in movimento.

Grob ha affermato che a seguito della sperimentazione delle unità di processazione neurale nelle applicazioni robotiche sono stati raccolti interessanti elementi che consentono di ipotizzare l'impiego delle NPU anche nel contesto del core business di Qualcomm, cioè quello legato ai dispositivi mobile. Una tecnologia che potrebbe portare, secondo quanto illustrato da Grob, alla realizzazione di particolari interfacce mediante le quali lo smartphone è capace di apprendere le abitudini, le azioni ed i comportamenti dell'utente invece di costringere quest'ultimo a trafficare con i comandi e con i menu. Oppure ancora la possibilità di realizzare sofisticate funzionalità di ricerca basate su reti neurali capaci di appoggiarsi ai Big Data, il che renderebbe la ricerca più efficiente rispetto all'impiego dei server remoti come avviene oggi.

"La progettazione nell'ambito mobile pone particolari sfide. Noi abbiamo vincoli di consumo, prestazioni e dimensioni. Il cervello è un sistema incredibile ad elevate prestazioni ed elevata efficienza e anche con un'incredibile densità di prestazione quando si considerano le sue attività" ha dichiarato Grob.

I processori moderni, pur essendo in grado, di offrire una parte di parallelismo grazie all'impiego di core multipli, a sono comunque basati sui medesimi principi dell'architettura di von Neumann che è stata definita agli albori dell'era dei computer. "Un cervello non è nulla di tutto ciò: stiamo osservando la biologia in maniera tale da ideare una nuova generazione di processori. Il cervello possiede capacità superiori di riconoscimento dell'immagine e quindi stiamo tentando di capire perché è così e come poterlo realizzare" ha spiegato Grob.

Invece di compiere milioni di passi di processo con meno di una decina di unità di esecuzione parallele, così come avviene nei processori multicore odierni, il cervello si comporta in maniera opposta: risolve gli stessi problemi con meno di 10 passi di processo ma usando milioni di unità di esecuzione parallele. Il cervello è inoltre una macchina estremamente efficiente: una simulazione dell'attività del cervello umano su una convenzionale macchina di von Neumann richiederebbe un'energia 50 volte superiore.

Per replicare l'attività cerebrale, Qualcomm e Brain hanno sviluppato un cosiddetto "spiking model" del sistema visivo. Sin dal 2009 Brain ha perfezionato i propri spiking model del comportamento dei neuroni, creando modelli delle loro funzioni in grado di replicare il comportamento cerebrale in maniera comuputazionalmente efficiente. Le due realtà hanno lavorato per creare un insieme di strumenti di sviluppo per applicazioni di reti neurali che modellino il comportamento delle reti stesse, che la compagnia metterà presto a disposizione degli sviluppatori.

"La nostra suite di strumenti è dedicata a tutto il flusso di progettazione, dalla sintesi di design e simulazione alla realizzazione dell'hardware" ha dichiarato Grob. Oltre ad utilizzare gli strumenti internamente per la creazione di chip per smartphone, Grob sostiene che questo modello computazionale può essere applicato a qualsiasi altro tipo di dispositivo elettronico. Secondo il CTO di Qualcomm, inoltre, sarebbe possibile aprire la strada ad alternative agli app store, che egli chiama "experience store" consentendo agli utenti di scaricare nuove "competenze" nei loro dispositivi consumer.

10 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
Aenil15 Ottobre 2013, 12:54 #1
è un inizio.. ora però c'è anche da vedere, di pari passo, che impatto avranno queste tecnologie.
cignox115 Ottobre 2013, 13:00 #2
Tra 10 anni il miglior amico degli adolescenti sará il proprio smart phone :-) (non che oggi giá non lo sia...)
inited15 Ottobre 2013, 13:04 #3
Mi ricordo anni fa le lezioni all'università in cui veniva spiegato che i ricercatori americani a metà del secolo scorso rimediavano finanziamenti dal dipartimento per la difesa per le proprie ricerche sul cervello dicendo agli americani che avrebbero costruito computer per permettergli di automatizzare la propria difesa nucleare quando in realtà li volevano fare per modellare gli analoghi biologici...
mau.c15 Ottobre 2013, 14:02 #4
a me pare che lo sviluppo del software è sempre 10 anni indietro. e quando si cambia architettura e approccio la cosa si nota pesantemente... se questa tecnologia offre dei miglioramenti ci vorrà comunque del tempo prima che venga adottata e che l'industria cambi la direzione.

mi ricordo che quasi 20 anni fa un ingegnere informatico mi spiegava in maniera semplice che nel pc le informazioni sono tutte di 0 e 1 e che per aumentare le capacità stavano testando la possibilità di usare altri stati oltre questi due. certo in teoria era una buona idea, ma in pratica? s'è visto niente del genere a livello commericale? direi di no. siamo comunque molto legati all'architettura che abbiamo implementato dall'inizio, questa fornisce un alto grado di specializzazione, ma necessariamente guardando lontano io credo che mostri anche qualche limite
II ARROWS15 Ottobre 2013, 15:08 #5
Il cervello è veloce perché accede ai dati molto velocemente... ed è analogico. I dati sono affogati nei "core".
I computer sono digitali, sono precisi. La precisione non ammette errori a meno che sia programmata e a volte l'errore è proprio quello che serve.

Questo è uno dei limiti dell'analisi di immagini, la fantasia generata dall'errore.

Questo è uno dei problemi principali, quel video è un giochetto molto carino. Ma pur sempre un giochetto. Nel momento in cui gli spegni la luce, quel robottino farà molta fatica.
Originariamente inviato da: cignox1
Tra 10 anni il miglior amico degli adolescenti sará il proprio smart phone :-) (non che oggi giá non lo sia...)
Non tra 10 anni, ma almeno gli risponderà... e forse potrebbe anche convincerlo a studiare.

Ovviamente si scherza, nessuna azienda vuole che i propri schiavi si acculturiscano.
Personaggio15 Ottobre 2013, 16:00 #6

GPU

Scusate ma le GPU non sono già tanti processori in parallelo a frequenza ridotta?
Aenil15 Ottobre 2013, 16:19 #7
Originariamente inviato da: Personaggio
Scusate ma le GPU non sono già tanti processori in parallelo a frequenza ridotta?


..e con un'architettura molto più semplice di quella di una CPU, qui però se ho capito bene l'articolo questo concetto è estremizzato o perlomeno è quello che vogliono raggiungere.
Blashyrkh15 Ottobre 2013, 16:27 #8
Originariamente inviato da: II ARROWS
Questo è uno dei problemi principali, quel video è un giochetto molto carino. Ma pur sempre un giochetto. Nel momento in cui gli spegni la luce, quel robottino farà molta fatica.


ah perchè tu riesci a vedere al buio?

è un robot, si può implementare un visore notturno senza alcun problema...cosa c'entra mo spegnere la luce, lol
Blashyrkh15 Ottobre 2013, 17:38 #9
Originariamente inviato da: mau.c
a me pare che lo sviluppo del software è sempre 10 anni indietro. e quando si cambia architettura e approccio la cosa si nota pesantemente... se questa tecnologia offre dei miglioramenti ci vorrà comunque del tempo prima che venga adottata e che l'industria cambi la direzione.

mi ricordo che quasi 20 anni fa un ingegnere informatico mi spiegava in maniera semplice che nel pc le informazioni sono tutte di 0 e 1 e che per aumentare le capacità stavano testando la possibilità di usare altri stati oltre questi due. certo in teoria era una buona idea, ma in pratica? s'è visto niente del genere a livello commericale? direi di no. siamo comunque molto legati all'architettura che abbiamo implementato dall'inizio, questa fornisce un alto grado di specializzazione, ma necessariamente guardando lontano io credo che mostri anche qualche limite


beh la programmazione è una cosa complessa,e l'ottimizzazione lo è ancora di più. imparare ad usare(BENE) i nuovi strumenti non è cosa semplice e ci vuole tempo.creare una scheda grafica è meno complesso che creare un motore grafico o dei driver ottimizzati, e uno dei motivi principali è la scalabilità.


il problema del binario in ambito digitale è molto semplice, spero tu sappia il motivo per cui si sono scelti solo 2 stati. se non lo hanno fatto fino ad ora di certo non è perchè sono semplicemente "legati alle vecchie architetture", ma per altri motivi e per ovvie ragioni.
Antonio2316 Ottobre 2013, 00:35 #10
Originariamente inviato da: M47AMP
sperando, io credo, in finanziamenti DARPA.
Si chiama AI e il rinnovato interesse nel merito mi lascia speranzoso e scettico allo stesso tempo.
Stanno comunque ripartendo da dove Faggin era arrivato facendo dollari a palate, E NON CON DARPA.
Loro invece ripartono da uno dei due maggiori finanziatori mondiali della ricerca, l'altro era la NASA, il cui blasone appare oggi molto appannato.
In quanto ai post precedenti qualcuno con un barlume di memoria in merito all'intelligenza artificiale è rimasto.
L'unico risultato all'epoca fu l'ocr calcolato analogicamente e non deterministicamente con chip analogici e non digitali.
Insomma il modello resta sempre la retina.
Allora è assai più proprio parlare di cibernetica avanzata piuttosto che di AI pura, che del resto non è mai esistita se non nelle fantasie o nelle boutade pubblicitarie. Di AI comunque si tratta.


ragazzi, per favore, avete le idee piuttosto confuse. Tra l'altro, parlate di Qualcomm come se avesse bisogno di liquidità, suvvia...

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^