IBM e SyNAPSE, il computer senziente è sempre più vicino

IBM e SyNAPSE, il computer senziente è sempre più vicino

Big Blue realizza un chip da 4096 core sinaptici usando normali tecniche di produzione: si tratta di un importante passo avanti verso il computer senziente e, forse, verso la singolarità tecnologica

di Andrea Bai pubblicata il , alle 16:01 nel canale Scienza e tecnologia
IBM
 

Gli scienziati e i ricercatori IBM hanno presentato il primo chip, all'interno del progetto SyNAPSE, destinato alla realizzazione di una nuova categoria di computer "senzienti" caratterizzato da un milione di neuroni programmabili, 256 sinapsi programmabili e con la capacità di esegure 46 miliardi di operazioni sinaptiche al secondo per watt. Dotato di 4,5 miliardi di transistor, questo chip, pienamente operativo e pronto per la prouzione commerciale, è attualmente uno dei più grandi chip CMOS mai costruiti, capace di consumare appena 70mW ad un regime operativo che IBM definisce "biological real time".

Si tratta di un passo avanti significativo nell'avvicinare il paradigma di computer senziente alla società. Attualmente la sfida principale è rappresentata dal mancato collegamento tra le capacità di elaborazione cognitive del cervello umano e il bassissimo consumo dei sistemi odierni. Per colmare questo divario gli scienziati IBM hanno creato un'architettura di computazione completamente nuova ispirata dalle neuroscienze che devia dall'architettura di von Neumann prevalentemente utilizzata sin dalla seconda metà degli anni '40 per la realizzazione delle unità di computazione.

Il chip annunciato da IBM è il culmine di quasi dieci anni di ricerca e sviluppo che hanno tra l'altro prodotto un prototipo single-core nel 2011 e un ecosistema software comprensivo di un nuovo linguaggio di programmazione e un simulatore di chip nel 2013. Del resto del progetto SyNAPSE ne parlammo già nel 2008, quando IBM inizò a divulgarlo al grande pubblico.

Il nuovo chip è caratterizzato da una rete bidimensionale di 4096 core sinaptici digitali, dove ciascun modulo-core integra capacità di memoria, computazione e comunicazione e opera in maniera parallela, event-driven e tollerante agli errori. Per poter accedere ad una scalabilità che travalichi i confini del singolo chip è necessario che i chip quando collocati gli uni accanto agli altri possano connettere e comunicare tra loro, costruendo di fatto le fondamenta di futuri sistemi neurosinaptici. Per dimostrare le capacità di scalabilità, IBM ha realizzato anche un sistema con 16 chip da 16 milioni di neuroni programmabili e 4 miliardi di sinapsi programmabili.

Dharmendra S. Modha, IBM Fellow e IBM Chief Scientist per l'area Brain-Inspired Computing IBM Research, ha commentato: "IBM è all'avanguardia nel campo dei computer ispirati al cervello umano, in termini di un'architettura radicalmente nuova, di una portata d'azione senza precedenti, di efficienza senza pari, scalabilità senza limiti e innovative tecniche di progettazione. Prevediamo l'avvento di nuove generazioni di sistemi di information technology - che complementeranno le attuali macchine di von Neumann - in abbinamento ad un ecosistema di software e servizi in evoluzione. Questi chip possono trasformare la mobilità con sensori e applicazioni intelligenti che stanno nel palmo di una mano e non hanno bisogno di connettività come il WiFi. Questo traguardo evidenzia il ruolo di primo piano di IBM nei momenti di trasformazione della storia della computazione grazie ad investimenti di lungo termine nell'innovazione strutturata".

Il chip è stato realizzato impiegando il processo a 28 nanometri di Samsung, che può vantare transistor a bassa dispersione e elevata densità di memoria on-chip. "E' un traguardo fantastico poter fare leva su un processo usato per i dispositivi commerciali per realizzare un chip che emula il cervello umano elaborando enormi quantità di informazione a basso consumo. Si tratta di una rivoluzione architetturale essenziale per il settore che si muove verso la prossima generazione dell'elaborazione cloud e big-data. E' un piacere far parte del progresso tecnico per la prossima generazione grazie alla tecnologia di Samsung a 28 nanometri" ha commentato Shawn Han, vicepresidente Foundry Marketing per Samsung Electronics.

Gli elementi circuitali event-driven sono invece stati progettati secondo la metodologia asincrona sviluppata alla Cornell Tech University e rifinita da IBM sin dal 2008. "Dopo anni di collaborazione con IBM siamo ora più vicini alla costruzione di un computer simile al nostro cervello" ha dichiarato il professor Rajit Manohar della Cornell Tech.

La possibilità di combinare la tecnologia di processo a 28nm, una metodologia ibrida sincrona-asincrona e nuove architetture ha permesso di ottenere una densità di 20mW per centimetro quadrato, ovvero quattro ordini di grandezza in meno rispetto ai microprocessori attuali.

Questo chip fa parte di un più ampio ecosistema che comprende il già citato simulatore di chip, capacità di supercomputazione, paradigmi di programmazione, nuovi algoritmi, nuove applicazioni e prototipi. L'ecosistema supporta tutti gli aspetti del ciclo di programmazione, dalla progettazione allo sviluppo, al debug, alla messa in opera. IBM ha già progettato un nuovo percorso formativo dedicato a università, clienti, partner ed impiegati per avvicinare queste capacità tecnologiche alla società.

Per il futuro IBM sta lavorando sull'integrazione delle capacità di computazioni neurosinaptiche e multisensoriali nei dispositivi mobile, dove vi sono stringenti vincoli di consumo, dimensioni e prestazioni. Gli sviluppi futuri prevedono inoltre l'integrazione di nuovi sensori di tipo event-driven sul chip e lo studio di sistemi ancor più complessi per arrivare a superare i 100 mila miliardi di sinapsi. La visione di IBM è la realizzazione di sistemi capaci di apprendere in maniera autonoma, capaci di adattarsi al mondo reale e di operare elaborazioni sensibili al contesto operativo.

Il DARPA (Defense Advance Research Project Agency) ha finanziato il progetto sin dal 2008 con 53 milioni di dollari spalmati in quattro fasi. Oltre alla Cornell Tech, il progetto SyNAPSE ha visto la collaborazione di iniLabs, realtà specializzata nella realizzazione di sensori e dispositivi neurotecnologici.

20 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
PhoEniX-VooDoo08 Agosto 2014, 16:25 #1
ma concretamente che cosa puo fare?

e' come quando ricreano in laboratorio del tessuto cerebrale vivo e funzionante (nel senso di n neuroni che comunicano) che da un lato e' incredibile ma dall'altro fine a se stesso?
songohan08 Agosto 2014, 16:37 #2
Originariamente inviato da: PhoEniX-VooDoo
ma concretamente che cosa puo fare?

e' come quando ricreano in laboratorio del tessuto cerebrale vivo e funzionante (nel senso di n neuroni che comunicano) che da un lato e' incredibile ma dall'altro fine a se stesso?


Questo non è che l'inizio.
(Da qualche parte si deve pur cominciare).
pabloski08 Agosto 2014, 16:52 #3
Originariamente inviato da: PhoEniX-VooDoo
ma concretamente che cosa puo fare?

e' come quando ricreano in laboratorio del tessuto cerebrale vivo e funzionante (nel senso di n neuroni che comunicano) che da un lato e' incredibile ma dall'altro fine a se stesso?


Macchè. Qui non c'è nessun tessuto cerebrale o simil-cerebrale. Semplicemente un processore in grado di svolgere attività in parallelo molto velocemente e con consumi ridottissimi.

Il problema dell'IA non è il ferro ma gli algoritmi. Questi processori forse, un giorno, aiuteranno a far girare velocemente ed efficientemente questi algoritmi. Ma prima dobbiamo crearli gli algoritmi, cosa più facile a dirsi che a farsi.
PhoEniX-VooDoo08 Agosto 2014, 16:58 #4
Originariamente inviato da: pabloski
Macchè. Qui non c'è nessun tessuto cerebrale o simil-cerebrale. Semplicemente un processore in grado di svolgere attività in parallelo molto velocemente e con consumi ridottissimi.

Il problema dell'IA non è il ferro ma gli algoritmi. Questi processori forse, un giorno, aiuteranno a far girare velocemente ed efficientemente questi algoritmi. Ma prima dobbiamo crearli gli algoritmi, cosa più facile a dirsi che a farsi.


macchè de che?
io ho scritto "e' come quando" inteso come paragone con'un altra situazione, non inteso come "ah ci sono i neuroni nel processore"
Pier220408 Agosto 2014, 17:07 #5
4096 core sinaptici... inquietante

Ma da qui a creare una IA senziente mi sa che ne deve scorrere di acqua sotto i ponti.. ancora di più se si parla di autocoscienza.

Non credo che vedrò il giorno in cui potrò fare una conversazione filosofica con una macchina, forse quelli che nascono oggi...
Nhirlathothep08 Agosto 2014, 17:14 #6
robbe dei turchi
Opteranium08 Agosto 2014, 22:02 #7
non ho capito nè cosa sia, né cosa realmente possa fare e neppure in che cosa si differenzi dagli altri circuiti.. insomma, non ci ho capito una mazza È un fpga per caso?

Qualche luminare che chiarisca il tutto per i non addetti?
Avatar008 Agosto 2014, 22:05 #8
Ma la notizia sul chip che potenzia la memoria quando la date ?
LMCH09 Agosto 2014, 02:20 #9
Originariamente inviato da: Opteranium
non ho capito nè cosa sia, né cosa realmente possa fare e neppure in che cosa si differenzi dagli altri circuiti.. insomma, non ci ho capito una mazza È un fpga per caso?


Essenzialmente sono dei chip che implementano in hardware delle unita di elaborazione basate su un modello analogo a quello delle cellule neurali del cervello.

Notare l' uso dei termini "modello" ed "analogo", non sono la stessa cosa di quelle del cervello ma usano meccanismi di calcolo simili.

Questi chip permettono di eseguire in modo molto più efficiente "in hardware" algoritmi basati su cellule neurali "simulate in software".

Qualcosa di simile si poteva già fare usando fpga, ma quelli hanno una struttura ottimizzata per roba di uso più generale, mentre questi hanno un implementazione molto più efficiente di "simil-cellule neurali" (non ci si può fare tutto quello che si farebbe con un fpga equivalente, ma per la loro applicazione specifica sono molto più efficienti e veloci).

Per dirla in poche parole, sono roba che accelerano tantissimo tutte quelle applicazioni in cui si usano algoritmi di machine learning (per esempio: tutti quelli in cui bisogna "comprendere" in base a coppie di dati di esempio "input"+"risultato desiderato" come comportarsi con nuovi "input" che sono simili a quelli di esempio ma non la stessa cosa).
rockroll09 Agosto 2014, 02:27 #10
Originariamente inviato da: Opteranium
non ho capito nè cosa sia, né cosa realmente possa fare e neppure in che cosa si differenzi dagli altri circuiti.. insomma, non ci ho capito una mazza È un fpga per caso?

Qualche luminare che chiarisca il tutto per i non addetti?


Invece io pure anche non ho capito una mazza, e pensa, avevo completa ignoranza anche di FPGA, e non è che WIKI mi abbia aiutato molto...

Dopo una vita dedicata all'informatica oltre che a scienze matematiche e fisiche, più cerco di stare al passo e più mi rendo conto della mia abissale totale integrale massicia grossa grassa IGNORANZA!!!

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^