IBM presenta il nuovo supercomputer Blue Gene/Q

IBM presenta il nuovo supercomputer Blue Gene/Q

Big Blue presenta il nuovo supersistema della famiglia Blue Gene, attualmente il supersistema più efficiente con un rapporto di 2 gigaflop per watt

di pubblicata il , alle 11:29 nel canale Scienza e tecnologia
IBM
 
21 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
PATOP18 Novembre 2011, 23:16 #11
xshodan
per efficenza si intende rapporto performance/watt......i power di ibm , come gli ARM, a core RISC ottongono rapporti a valori talmente favorevoli da non poter essere confrontati con cpu x86.
Per quanto concerne il codice molto dipende anche dai compilatori utilizzati naturalmente........ma anche qui per un x86 la vedo parecchi dura.......l'architettura di questi processori Cisc x86 ( e' vero in realta' oramai ibridi) trova molta piu' difficolta a scalare ed all' aumentare del numero dei procesori in un sistema di grandi dimensione si ottiene via via sempre piu' core ma sempre piu' con minore efficenza in tutti i termini.
Se non ricordo male l'implementazione ibrida delle cpu x86 e' stata per prima implementata nell'architettura Kx di AMD , seguita poi anche da intel, proprio per cercare di ovviare a queste problematiche che le soluzioni a base CISC cominciavano a denotare e sarebbero state difficili da superare.
Pleg19 Novembre 2011, 00:31 #12
Originariamente inviato da: PATOP
l'architettura di questi processori Cisc x86 ( e' vero in realta' oramai ibridi) trova molta piu' difficolta a scalare ed all' aumentare del numero dei procesori in un sistema di grandi dimensione si ottiene via via sempre piu' core ma sempre piu' con minore efficenza in tutti i termini.


Mica tanto, tanto e' vero che gli Xeon (e gli x86 in generale) sono i processori di gran lunga piu' usati nei supercomputer, vedi qui:
http://i.top500.org/stats
scegli "stats: processor generation"


Originariamente inviato da: PATOP
Se non ricordo male l'implementazione ibrida delle cpu x86 e' stata per prima implementata nell'architettura Kx di AMD , seguita poi anche da intel, proprio per cercare di ovviare a queste problematiche che le soluzioni a base CISC cominciavano a denotare e sarebbero state difficili da superare.


La conversione CISC->RISC facilita la costruzione di processori superscalari e con pipeline profonde, ma non ha niente a che vedere con lo scalare del numero di core. Per quello contano l'architettura delle cache e della memoria, i protocolli di cache coherence eccetera.
Pleg19 Novembre 2011, 01:06 #13
Originariamente inviato da: M47AMP
Il parallelismo con il quale il sistema nervoso opera non si basa sul calcolo deterministico ma su quello analogico.


Non proprio, e' possibile simularlo con un computer standard ("deterministico" ma e' molto inefficiente a causa del diverso tipo di "architettura".

Cmq, se ti interessa l'argomento puoi dare un'occhiata qui:
http://www.stanford.edu/group/brainsinsilicon/
Stanno costruendo delle macchine dedicate, progettate ad-hoc, per fare simulazioni molto piu' veloci ed accurate.
PATOP19 Novembre 2011, 08:24 #14
xpleg
che i processori a base x86 siano i piu' utilizzati e duffusi credo oramai non ci sia ombra di dubbio e sia un dato inconfutabile.......ma questo non fa che rafforzare quanto menzionavo circa l'efficenza......se guardi la classifica in termini di potenza la stessa dovrebbe quindi essere maggirmente detenuta da x86 ma mi sembra invece che nonostante l'enorme utilizzo di questi processori non sia cosi' ( vedi appunto i problemi di scalabilita').
Per quanto concerne la conversioneCISC vs RISC da parte mia non ho detto che la cosa e' correlata alla scalabilita' ma a "molteplici problematiche che le soluzioni a base CISC cominciavano a denotare" sono quindi in sintonia anche con quanto riporti da parte tua.
vampirodolce119 Novembre 2011, 14:56 #15
Originariamente inviato da: trademark
per vampirodolce1, non per fare il vecchio della situazione ma hai mai usato gli olivetti m24 o gli olivetti 8086?

"con solo floppy da 3,25" " penso ti riferissi a floppy da 5,25" anche se nei 286 erano già presenti quelli da 3,5"

saluti
Si', i floppy ovviamente erano da 5.25, ho corretto la svista.
Non ho mai usato gli olivetti m24 o 8086, come si lavorava su quei pc? La cosa mi incuriosisce parecchio.
shodan19 Novembre 2011, 15:20 #16
Originariamente inviato da: PATOP
xshodan
per efficenza si intende rapporto performance/watt......i power di ibm , come gli ARM, a core RISC ottongono rapporti a valori talmente favorevoli da non poter essere confrontati con cpu x86.
Per quanto concerne il codice molto dipende anche dai compilatori utilizzati naturalmente........ma anche qui per un x86 la vedo parecchi dura.......l'architettura di questi processori Cisc x86 ( e' vero in realta' oramai ibridi) trova molta piu' difficolta a scalare ed all' aumentare del numero dei procesori in un sistema di grandi dimensione si ottiene via via sempre piu' core ma sempre piu' con minore efficenza in tutti i termini.
Se non ricordo male l'implementazione ibrida delle cpu x86 e' stata per prima implementata nell'architettura Kx di AMD , seguita poi anche da intel, proprio per cercare di ovviare a queste problematiche che le soluzioni a base CISC cominciavano a denotare e sarebbero state difficili da superare.


Ciao,
il punto e' che, parlando di efficienza, dipende tutto dalla tipologia di applicazione utilizzata. Per esempio, in ambito HPC conta soprattutto il livello di prestazioni in virgola mobile e molto meno le prestazioni general purpose. Non a caso i core PowerPC A2 sono in-order.

Comunque le CPU x86 non sono affatto male né come efficienza né come potenza pura. Dai un'occhiata ai seguenti link:
- http://www.realworldtech.com/page.c...9050230&p=2
- http://www.realworldtech.com/page.c...1235825&p=2

A proposito, la prima CPU x86 a decodificare le istruzioni CISC in microistruzioni RISC e' stata l'AMD K5

Ciao.
PATOP19 Novembre 2011, 18:23 #17
xshodan
ho visto i links.......ma a mio avviso sono parecchio lacunosi o si voglia confrntare pere con mele...in un link viene riportato un confronto tra una serie di cpu e gpu tra l'altro non proprio recenti mentre nell'altro vi sono processori di classe enterprise con processori desktop....di tutto un po'.
Comunque al di la di questo i supercomputer nella top500 hanno come principale riferimento linpack.......e prendendo per buono quanto riportato nel link ove appare sandy bridge 2600 a confronto per esempiocon power7 di IBM credo non possa esser trascurata la data di costruzione del processore e la tecnologia in nanometri utilizzata per la sua costruzione. Quando si parla di efficenza in termini performace/watt direi che questi ultimi due fattori sono da tenere presenti......POWER7 nello specifico e' realizzato a 45 nm mentre sandy e' a 32 nm........comunque non vi e' dubbio alcuno che in questi ultimi anni intel ha finalmente fatto un ottimo lavoro di evoluzione in termini di efficenza x86 anche perche' se prendessimo in esame l'architettura netburst risalente ad alcuni anni fa il paragone non sarebbe nemmeno fattibile. Vedremo cosa ci riserva il futuro con l'agguerrito avanzamento di ARM e con le nuove versioni di processori RISC (non solo Power7+ e power8 che saranno a 32 e 28 nm, ma anche ultrasparc che sembrano avere una nuova possibilita di sviluppo con oracle) .
shodan19 Novembre 2011, 19:16 #18
Originariamente inviato da: PATOP
xshodan
ho visto i links.......ma a mio avviso sono parecchio lacunosi o si voglia confrntare pere con mele...in un link viene riportato un confronto tra una serie di cpu e gpu tra l'altro non proprio recenti mentre nell'altro vi sono processori di classe enterprise con processori desktop....di tutto un po'.


Ciao,
i grafici non sono lacunosi: sono stati fatti col preciso intento di mettere a confronto la capacità DP delle (allora) più moderne microarchitetture.

Comunque al di la di questo i supercomputer nella top500 hanno come principale riferimento linpack.......e prendendo per buono quanto riportato nel link ove appare sandy bridge 2600 a confronto per esempiocon power7 di IBM credo non possa esser trascurata la data di costruzione del processore e la tecnologia in nanometri utilizzata per la sua costruzione. Quando si parla di efficenza in termini performace/watt direi che questi ultimi due fattori sono da tenere presenti......POWER7 nello specifico e' realizzato a 45 nm mentre sandy e' a 32 nm........comunque non vi e' dubbio alcuno che in questi ultimi anni intel ha finalmente fatto un ottimo lavoro di evoluzione in termini di efficenza x86 anche perche' se prendessimo in esame l'architettura netburst risalente ad alcuni anni fa il paragone non sarebbe nemmeno fattibile. Vedremo cosa ci riserva il futuro con l'agguerrito avanzamento di ARM e con le nuove versioni di processori RISC (non solo Power7+ e power8 che saranno a 32 e 28 nm, ma anche ultrasparc che sembrano avere una nuova possibilita di sviluppo con oracle) .


Riguardo al confronto Sandy Bridge - Power7: direi che i risultati della CPU x86 sono estremamente positivi. Devi considerare infatti che i Power7 dispongono di 4 controller DRAM, una notevolissima cache eDRAM e un back-end di esecuzione di prim'ordine, coadiuvato da SMT a 4 vie. Il tutto ha un costo in termini di die space: ben 567 mm2.

In confronto, una modesta CPU Core i3 (2 core con 2 controller DRAM) fornisce valori di SpecInt/SpecFp per MHz praticamente identici, il tutto con uno spazio su die decisamente minore.

Ovviamente quello non vuole e non può essere un confronto diretto, in quanto ci sono troppe variabili da considerare (una su tutti, i diversi compilatori utilizzati), ma quei valori mostrano chiaramente l'enorme lavoro fatto sulle CPU x86. A proposito, i valori degli Opteron sono un po' bassi: se non ricordo male, il submit fu fatto da Intel, quindi non c'è da aspettarsi un'ottimizzazione stellare!

A favore del Power7 giocano altri fattori, come la notevolissima banda verso l'I/O (che occupa parecchio spazio sul die), decisamente superiore rispetto a quella garantita dal bus QPI di Intel. E qui torniamo al discorso di prima: sono CPU pensate per compiti diversi. In un supercomputer, la banda verso le DRAM e l'I/O ha un ruolo di prim'ordine, mentre su un desktop la loro importanza è notevolmente ridimensionata.

Ciao.
coschizza20 Novembre 2011, 18:02 #19
Originariamente inviato da: PATOP
xshodan
per efficenza si intende rapporto performance/watt......i power di ibm , come gli ARM, a core RISC ottongono rapporti a valori talmente favorevoli da non poter essere confrontati con cpu x86.


eppure apple è passata dalle cpu power di ibm a quelle intel perche il rapporto performance/watt era nettamente a favore della soluzione x86 rispetto a quella risk di ibm

power e arm sono risc solo teoricamente perche poi hanno un implementazione nettamente differente che porta ad avere risumtati diametralmente opposti nel rapporto performance/watt, questo perche una è nata per performance l'altra per puntare sui consumi.
Sunburn20 Novembre 2011, 18:18 #20
Originariamente inviato da: Phantom II
Prodotto affascinante questo nuovo Blue Gene, i suoi ambiti d'impiego, invece, mi fanno cadere le braccia.


e perchè, secondo te per cosa dovrebbero essere usati supercomputer di questo calibro? youporn?

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^