Il Giappone pianifica il più potente supercomputer: 130 PFLOPs

Il Giappone pianifica il più potente supercomputer: 130 PFLOPs

Target ambizioso per il ministero dell'Economia, del Commercio e dell'Industria giapponese: costruire entro il 2017 un supercomputer in grado di riportare il Giappone al centro dello sviluppo tecnologico

di pubblicata il , alle 10:50 nel canale Private Cloud
 
16 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
rockroll29 Novembre 2016, 00:11 #11
Originariamente inviato da: demon77
Ad essere precisi.. questo è un super computer "tradizionale" nel senso che è strutturato per eseguire una (titanica) quantità di calcoli programmati.
La IA si basa su un sistema diverso.

Ora la parte meno simpatica.. La strizza da skynet purtroppo non è roba da paranoici ma un problema reale che si dovrà bene o male affrontare.
Già diversi personaggi importanti del calibro di Gates e Hawking hanno messo in guardia sul problema.. e non sono proprio i primi due pirla.


Per me sono sicuri solo i processi tradizionali.
Non ha senso affidare decisioni operative a processi così vaghi ed imprecisi (solo probabilistici) come l'AI ed i processori quantici. Queste deformazioni del preciso concetto di processore possono essere di aiuto, anche grande aiuto, se intese come funzioni informative, ma mai e poi mai dovrebbere diventare funzioni operative o peggio decisionali.
Se un domani saremo stati così stolti ed incoscienti da affidare ad elaborazioni "probabilistiche" funzioni al di sopra del controllo umano, ci saremo meritati Skynet...
rockroll29 Novembre 2016, 00:18 #12
Originariamente inviato da: Redazione di Hardware Upgrade
Link alla notizia: http://pro.hwupgrade.it/news/server...lops_65920.html

Target ambizioso per il ministero dell'Economia, del Commercio e dell'Industria giapponese: costruire entro il 2017 un supercomputer in grado di riportare il Giappone al centro dello sviluppo tecnologico

Click sul link per visualizzare la notizia.


Ma quel pachiderma di Trump non aveva detto che avrebbe riportato lui gli USA al centro dello sviluppo tecnologico?
demon7729 Novembre 2016, 00:46 #13
Originariamente inviato da: rockroll
Per me sono sicuri solo i processi tradizionali.
Non ha senso affidare decisioni operative a processi così vaghi ed imprecisi (solo probabilistici) come l'AI ed i processori quantici. Queste deformazioni del preciso concetto di processore possono essere di aiuto, anche grande aiuto, se intese come funzioni informative, ma mai e poi mai dovrebbere diventare funzioni operative o peggio decisionali.
Se un domani saremo stati così stolti ed incoscienti da affidare ad elaborazioni "probabilistiche" funzioni al di sopra del controllo umano, ci saremo meritati Skynet...


non saprei.. l'argomento è piuttorso vasto ed articolato per liquidarlo così alla buona..
i vantaggi delle AI sarebbero notevoli per tantissime cose.

PS: perchè i procesori quantici? Quelli non agiscono in modo probabilistico, servono piuttosto a risolvere problemi di tipo anche probabilistico con velocità enormemente superiori ai processori attuali.
Raghnar-The coWolf-29 Novembre 2016, 10:51 #14
Originariamente inviato da: Bellaz89
Beh, ma anche i computer 'classici' odierni hanno una probabilita' non nulla(sebbene molto piccola) di fallire! I computer classici, sebbene sfruttino la logica booleana, a livello microscopico si basano pesantemente effetti quantistici probabilistici. Inoltre c'e' da notare che un dispositivo elettronico ha anche la probabilita' di fallire per l'accensione accidentale per effetto della radiazione ambientale e cosmica. Per questo motivo per esempio ci sono le memorie ECC. la probabilita' di fallimento di un computer quantistico verrebbe tenuta sufficientemente bassa per non avere problemi del genere.

Purtroppo dalla probabilita' non si scappa in nessun caso. La certezza e' un concetto umano, non naturale


In realta' i computer quantistici odierni sono basati intrinsecametne sul "fallimento" e l'individuazione, una volta tanto, di un qbit al posto del rumore termico.

Non c'e' paragone in quanto ad affidabilita', e velocita', e facilita' di uso.

Inoltre, anche ammesso di poter costruire un computer quantistico "perfetto" resta il problema della velocita' e degli utilizzi.

Non tutti gli algoritmi ricevono un vero speedup da un sistema quantistico.

Ad esempio: se devi cercare un elemento in un database disordinato c'e' un algoritmo magico chiamato "Grover search", che ti dice che puoi trovarlo con velocita' log(N), ovvero meno della velocita' che ci vuole a leggere gli elementi.

Tuttavia, se il database se ne sta nel mondo classico, come tutti i database del mondo e tutte le cose con cui un essere umano deve interagire e vuole avere risposte e vuole usare memorie di massa...etc... il sistema deve leggerli quegli N elementi, in modo classico, e poi trasformarli quantisticamente, operazione sicuramente piu' lenta della semplice verifica (che e' una if condition), e poi comunque avviare la "Grover search"!

Quindi ecco un caso in cui in teoria ci potrebbe essere un salto in avanti fantascientifico, ma in pratica non ce ne facciamo niente.

Idem per sorting o altre cose.

Fare un sorting con velocita' N (utilzzando il grover search) anziche' NLogN sara' anche' figo, ma cosa cavolo cambia se devo leggere dei dati classici, passando da un sistema classico...etc...?

Oltretutto bisogna considerare che comunque si passa da un sistema parallelo a migliaia di cores a diversi GHz a un sistema seriale a pochi Hz.

E avere memorie quantistiche di massa ce ne passera' tanto, ma tanto...

Alla fine il vero speedup si ha nelle solite applicazioni, chiavi di cifratura e affini (che si importano in un baleno. Ma a quel punto e' una situazione "winner takes all", perche' appena qualcuno costruisce il computer quantistico costruisce chiavi di cifratura quantistiche e siamo punto a capo) e nel risolvere problemi quantistici che utilizziamo noi fisici, dove magari per calcolare l'energia di uno stato quantistico ci vuole un tempo N^N, mentre con un PC quantistico un tempo di N, e allora non c'e' clock che tenga per calcolare molecole complesse o nuclei.

C'era una pubblicazione qualche mese fa su questo argomento, dove e' stato calcolato lo stato della molecola di H2+ (2 protoni e un elettrone) che e' il primissimo problema non banale che puoi risolvere con algoritmi molti-corpi e ha funzionato piuttosto bene...
marezza29 Novembre 2016, 13:14 #15
E per una sana ignoranza... S.O. a 32 bit!!!
Raghnar-The coWolf-29 Novembre 2016, 13:55 #16
Originariamente inviato da: Bellaz89
Sisi, non volevo dire che i computer quantistici non funzionino attraverso il collasso della funzione d'onda, il quale e' un processo intrinsecamente probabilistico, quanto che la probabilità della correttezza o meno del risultato finale puo' essere controllato (a scapito della velocità, facendo piu' sample di uno stesso problema immagino).

PS: se trovi questo articolo passa pure con un PM grazie!
PPS: Conosci il Prof. Colo'?


Gianluca Colo'? Altroche'!

L'articolo e' open: http://journals.aps.org/prx/abstrac...ysRevX.6.031007

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^