IBM e SyNAPSE, il computer senziente è sempre più vicino

IBM e SyNAPSE, il computer senziente è sempre più vicino

Big Blue realizza un chip da 4096 core sinaptici usando normali tecniche di produzione: si tratta di un importante passo avanti verso il computer senziente e, forse, verso la singolarità tecnologica

di pubblicata il , alle 16:01 nel canale Scienza e tecnologia
IBM
 
20 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
frankie09 Agosto 2014, 10:58 #11
In pratica fa in HW quelle operazioni simil cerebrali, reti neurali, machine learning ecc... che di solito vengono svolte via sw.

Facendolo in HW, lo svolgono a 1000 volte la velocità e a 1/1000 del consumo.

Ovvio che sia un architettura diversa
baruk09 Agosto 2014, 11:02 #12
La cosa che impressiona è l'evoluzione della complessità nel giro di soli tre anni...
WarDuck09 Agosto 2014, 17:24 #13
Originariamente inviato da: frankie
In pratica fa in HW quelle operazioni simil cerebrali, reti neurali, machine learning ecc... che di solito vengono svolte via sw.

Facendolo in HW, lo svolgono a 1000 volte la velocità e a 1/1000 del consumo.

Ovvio che sia un architettura diversa


La mia opinione, da ignorante in materia di reti neurali e dopo una lettura veloce e superficiale, è che come dici te vengano accelerate alcune funzionalità in hardware esattamente come una GPU accelera le operazioni grafiche che una volta erano gestite dalla CPU.

Se un modello a rete neurale è equivalente ad una macchina di Turing (o inferiore) le fantasie circa una forma di intelligenza completamente autonoma in grado essa stessa di immaginare o creare qualcosa di nuovo rimangono con probabilità 0.99 periodico pari a 0.

La teoria della computabilità è in giro da un bel po' e dovrebbe ricordare a tutti che l'informatica può fare molto meno della matematica.

Se non vado errato, anche il quantum computing (che amplia enormemente il range di funzioni trattabili) è soggetto alle limitazioni di quella teoria.

In ogni caso è un bene che queste ricerche vadano avanti, ed è estremamente interessante il lato consumi.
bobafetthotmail09 Agosto 2014, 22:42 #15
L'elemento fondamentale di una rete neurale è un "nodo" (un neurone se parliamo di biologia) che riceve segnali da altri "nodi".
Se la somma dei segnali +1 e dei segnali -1 che riceve è superiore ad un certo numero arbitrario detto soglia, tale nodo (o neurone) si attiva e spara il suo segnale (o un +1 o un -1 a seconda del tipo di nodo che esso è a tutti gli altri nodi a cui è connesso.

Ovviamente il tutto funziona perchè ci sono connessioni specifiche tra alcuni nodi e non tra altri. Se tutti sparano segnali a tutti ci vien solo un gran casino e basta.

Riguardo all'efficienza, questo è un sistema inefficiente per definizione in quanto I nodi deputati ad un certo compito fanno SOLO quello. è un sistema analogico.

Nel cervello ad esempio ci sono neuroni che per tutta la loro (e vostra) vita fanno la stessa identica cosa, tipo ricevere la sensibilità di un pezzettino della pelle di un dito, oppure controllare 30 fibre muscolari in un muscolo, o mantenere una cosa nella memoria.

Quando sentite "l'essere umano usa solo un 10% del cervello" dovete sempre aggiungerci "nello stesso momento". Il restante 90% fa cose che non servono in quel momento specifico, quindi è inattivo o in attesa. A seconda dei momenti e delle attività si attivano o spengono zone diverse del cervello.

Un sistema digitale convenzionale invece fa passare tutto da un processore unico (con più o meno core), che fa tutto. Se qualcosa non serve, il processore può impegnare la potenza che non sta usando per quello a fare qualcos'altro.

Questi tipi di sistemi hanno un utilizzo principalmente nella ricerca biomedica, dove avere una macchina che ti simula il funzionamento di un cervello fa TANTO comodo così puoi fare esperimenti molto utili ma che sarebbero disumani se fatti su esseri umani veri.

Fuori dalla ricerca biomedica... dipende da quanto facile è scrivere algoritmi e se questi nodi sono riprogrammabili in modo dinamico (e sembrerebbe di sì visto che sono "digitali".
Se sono riprogrammabili riescono ad essere efficienti, perchè così quando certe funzioni non servono i nodi della rete cambiano funzione e vengono sempre sfruttati.

Detto questo usare SENZIENTE è SBAGLIATO.
Guardarsi le definizioni. Senziente è solo in grado di sentire stimoli come il dolore. Qualsiasi animale decente e senziente.

La capacità di prendere decisioni non dettate direttamente da istinti o riflessi è la SAPIENZA,
Il nome che abbiamo dato alla nostra specie è "Homo Sapiens Sapiens". Ci sarà un motivo no?

Se un modello a rete neurale è equivalente ad una macchina di Turing (o inferiore) le fantasie circa una forma di intelligenza completamente autonoma in grado essa stessa di immaginare o creare qualcosa di nuovo rimangono con probabilità 0.99 periodico pari a 0.
Il modello a rete neurale è basato sull'architettura del cervello umano, ed eventualmente sarà in grado di simulare un cervello umano che lavora a velocità da computer (neuroni sono relativamente lenti perchè bio/elettrochimici).
Quindi una persona che pensa a 100, 1000 o più volte più veloce di un essere umano reale. Volendo dovrebbe essere possibile anche copiare il proprio cervello dentro uno di questi cosi (dipende quanto buone diventano le scansioni, col progetto Connettoma stanno facendo dei bei passi).

Comunque, anche tra gli esseri umani quelli che creano qualcosa di realmente nuovo sono RARISSIMI. Nel 99% dei casi il massimo dell'originalità è adattare una soluzione per un problema per funzionare decentemente anche su un altro, che ha qualche somiglianza.

Mai sentito "i mediocri imitano, i geni rubano"? (picasso)
demos8810 Agosto 2014, 10:02 #16
Beh è un tentativo di applicare all'hardware ciò che gira nel mondo IA da un pezzo... prima di vederne applicazioni concrete penso che ne passerà, e inizialmente saranno applicazioni dedicate: data mining, riconoscimento di immagini, apprendimento automatico...
LMCH10 Agosto 2014, 21:31 #17
Originariamente inviato da: demos88
Beh è un tentativo di applicare all'hardware ciò che gira nel mondo IA da un pezzo... prima di vederne applicazioni concrete penso che ne passerà, e inizialmente saranno applicazioni dedicate: data mining, riconoscimento di immagini, apprendimento automatico...


E' sufficiente che vi sia il software di base per adattare il software basato su reti neurali "simulate in software" e ci sarebbero già un sacco di possibili applicazioni.

Yann LeCunn (linkato da pabloski) "critica" il fatto che non abbiano utilizzato l'architettura ottimale per applicazioni "di fascia alta", ma probabilmente a parte questioni di brevetti hanno scelto un architettura più semplice per ridurre costi e consumi e poter iniziare ad usare quei chip anche per roba "consumer" o quasi.

Ad esempio si potrebbero usare quei chip per avere telecamere pan-tilt-zoom che fanno il tracking in automatico di oggetti e persone in movimento che entrano nel loro campo visivo
(con maggior precisione e minori consumi rispetto a quelle attualmente disponibili), idem per sistemi anti-collisione per carrelli che "decidono da se" come cambiare il percorso per evitare collisioni.

Tutta roba che si può già fare ora ma che comporta installare schede industriali con la potenza di calcolo di un desktop di quelli ben pompati.

Idem per applicazioni industriali in cui attualmente serve una fase di apprendimento offline bella lunga e con poca flessibilità di adattamento in caso di "nuove cose da imparare al volo" quando il sistema di controllo opera online (mentre ora diventerebbe possibile mantenere il sistema in "auto apprendimento" senza troppe conseguenze negative).
pabloski10 Agosto 2014, 21:47 #18
Originariamente inviato da: LMCH
Yann LeCunn (linkato da pabloski) "critica" il fatto che non abbiano utilizzato l'architettura ottimale per applicazioni "di fascia alta",


Il problema è che non si ha ancora un'architettura di reti neurali in grado di funzionare come il cervello.

Per cui ogni implementazione è e sarà sempre un mero esperimento.

Comunque queste invenzioni un significato ce l'hanno, ovvero spronare l'industria elettronica alfine di creare nuove architetture hardware. Synapse è poco più di un acceleratore per applicazioni basate su reti neurali integrate and fire, ma è comunque un passo avanti importante da quando le ETANN di Intel non approdarono a nulla. Oggi almeno ci si riesce a creare dei "chip neurali".

L'unico problema è il sensazionalismo dei media, perchè creano false aspettative, affermando che questi chip sono intelligenti. Ovviamente non lo sono. Hanno bisogno di essere "programmati" come una normale cpu. Ed è il programma giusto quello che continua a mancarci.
hermanss11 Agosto 2014, 14:38 #19
Originariamente inviato da: Avatar0
Ma la notizia sul chip che potenzia la memoria quando la date ?


...e magari anche quella sul chip di potenziamento sociale e della visione assistita (like Deus EX)
Personaggio12 Agosto 2014, 02:33 #20
un esempio pratico (imho): Il controllo e la gestione del traffico automatizzata.

Oggi esistono già automazioni del traffico è il sistema più imponente è quello di Los Angeles, dove la durata di ogni semaforo è gestita automaticamente in funzione del traffico presente. Però questo sistema gestisce i vari incroci singolarmente e tutta l'attività è coadiuvata da un NOC dove degli umani fanno la supervisione sia dell'attività automatica che de traffico stesso, e spesso intervengono manualmente. Inoltre il sistema agisce dopo aver notato un incremento di traffico non può agire anticipatamente.

Con questa architettura, in teoria, si potrebbe gestire non gli incroci, ma l'intera rete e prevenire il traffico. Cioè un sistema che in base alla statistica e agli eventi posso anticipare il traffico: c'è un incidente in un incrocio e immediatamente interviene su tutti gli incroci di tutta la città, che possa consigliare agli automobilisti il percorso da fare per evitare intasamenti. Attenzione per spiegarmi meglio, il percorso consigliato non è quello che serve per evitare di fare la fila, cosa che oggi fa già un banale navigatore, ma per evitare che la fila si crei. Il tutto senza la necessita dell'intervento umano che non deve neanche monitore i sensori, perché se si dovesse guastare una telecamera o un qualsiasi sensore che informa il sistema del traffico presente su una strada, sarebbe cmq capace di gestirlo e di far passare un flusso di veicoli in quella zona tale da non intasarla, o ipotizzare un incidente in quell'area anche senza sensori in base alle anomalie generate dal traffico nelle aree limitrofe e contemporaneamente inviare il ticket all'operaio per la riparazione del sensore.

Un altro esempio è il monitoraggio di sistemi complessi come una rete di telefonia mobile dove sono coinvolti quasi 50 mila apparati in un paese come l'italia (radio, trasporto e core). Oggi questi sistemi ti avvisano di una piastra guasta o che un apparato non è più visibile nella rete, o che non arriva corrente ad un apparato, con questo sistema neurale, in teoria, un software potrebbe intuire automaticamente in funzione dei guasti e della raggiungibilità o meno di uno o più apparati, lanciare da solo i comandi per fare troubleshooting e in base a tutti questi imput riparare da solo un guasto di configurazione o software (per esempio restartando un apparato "impallato" o se è un problema hw inviare il ticket direttamente all'operaio con descritta l'operazione da fare, e se proprio serve l'attività dell'uomo in locale, per capire il problema, lo scriverà nel ticket indicando le varie possibilità in funzione di quello che troverà sul posto. In poche parole sostituirebbe tutti i centri di monitoraggio.

Applicandolo poi a cose che potremmo avere fra 50'anni potrebbe gestire da remoto di un pool di veicoli senza pilota, o di una intera città. Il controllo di milioni di nano-robot dentro un organismo vivente che curano un emorragia interna.

Poi come al solito ci sono le solite previsioni del tempo che diventerebbero accurate al secondo e al metro quadrato.


Un altra cosa che credo potrebbe rivoluzionare è il funzionamento della rete stessa. Come può gestire il traffico dei veicoli in maniera intelligente può farlo anche con i pacchetti dati, sostituirebbe i protocolli di routing e senza la necessità dei router, e crollerebbero le latenze che da millisecondi passerebbero a nanosecondi. Potrebbe gestire alla stessa maniera una rete elettrica, la famosa "Smart Grid" di cui i politici ne parlano spesso, senza un macchina come questo che sta tentando di sviluppare l'ibm sarebbe più una Tonta Grid.

Poi si, forse, messo dentro a un robot potrà farlo diventare un po' intelligente, ma prima di arrivare a questo ci sono tantissimi utilità che potrebbe avere e molto più semplici da attualizzare.

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^