Un supercomputer giapponese abbina CPU, GPU e SSD

Un supercomputer giapponese abbina CPU, GPU e SSD

Tsubame 2.0 abbina CPU e GPU per una potenza di calcolo superiore a 2 PetaFLOPS, ricorrendo a unità SSD per gestire lo storage locale: ottimi risultati anche in termini di contenimento dei consumi

di pubblicata il , alle 12:13 nel canale Private Cloud
 

Tsubame 2.0 è il nome scelto per indicare un nuovo supercomputer sviluppato in Giappone; con una potenza massima dichiarata in 2,39 PetaFLOPS questa soluzione si posiziona al secondo posto tra i 500 top supercomputer mondiali, stando ai dati aggiornati nella lista del mese di Giugno 2010.

Alla costruzione di questo supercomputer contribuiranno NEC e HP; la sede scelta è il Tokyo Institute of Technology, mentre per potenza di elaborazione questo risulterà essere il più potente supercomputer situato su suolo giapponese, il primo a superare la soglia di 1 PetaFLOPS.

L'approccio scelto per la sua costruzione è di tipo ibrido: accanto a tradizionali architetture di processore troviamo infatti GPU NVIDIA della serie Tesla M2050. La risultante è quindi una potenza elaborativa massima di picco che per il 90% circa dipende proprio dalla componente GPU, elemento che rende questo supercomputer di fatto una soluzione di calcolo di tipo vettoriale.

In funzione del tipo di elaborazione eseguita la potenza massima di picco varia sensibilmente. Il massimo teorico di 2,39 PetaFLOPS scende nell'intervallo tra 1,1 e 1,4 PetaFLOPS utilizzando il ben noto benchmark Linpack, ponendo questo supercomputer tra il terzo e il quarto posto nell'attuale classifica dei Top 500. Utilizzando sistemi di stima metereologica, che ben si adattano alla computazione vettoriale, è possibile ottenere una potenza di picco di 150 TeraFLOPS, circa il triplo del massimo attualmente ottenibile per questi scenari di elaborazione.

Quali sono gli elementi che compongono questa soluzione? Alla base troviamo processori Intel Xeon 5600, appartenenti alla famiglia Westmere-EP, con frequenza di clock di 2,93 GHz e architettura a 6 core. Dal versante GPU, come abbiamo detto, la scelta è caduta su soluzioni NVIDIA Tesla M2050, basate su architettura Fermi.

In totale troviamo 2.816 processori, abbinati a 4.224 GPU Tesla: il rapporto vede quindi 3 schede video collegate a un server, all'interno del quale trovano posto due CPU. La potenza di calcolo di ogni nodo di elaborazione (3 GPU e 2 CPU) è pari a 1,6 TeraFLOPS; per ogni armadio rack la potenza complessiva sale a 51,2 TeraFLOPS.

L'architettura memoria è di tipo misto: il design prevede infatti memoria locale per CPU e GPU, con quantitativi rispettivamente pari a 80,6 Terabytes e 12,7 Terabytes, affiancati da 173,9 Terabytes di storage locale composto da unità SSD. Questa scelta permette di ottenere elevate prestazioni sia in lettura come in scrittura dei dati

Particolarmente interessanti le ottimizzazioni introdotte in termini di consumo complessivo. A dispetto di un aumento della potenza di calcolo di 25 volte rispetto alla soluzione Tsubame 1.0, il nuovo supercomputer genera un consumo complessivo pari a 1MW, contro gli 0,85MW del sistema che andrà a sotituire. Da questo un costo di mantenimento del sistema molto ridotto, considerandone la potenza elaborativa complessiva.

33 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
Abadir21 Giugno 2010, 12:21 #1
A cosa serve un supercomputer di questo tipo?
supermario21 Giugno 2010, 12:31 #2
a fare superpi 32M in mezzo secondo, chiaro!

apparte gli scherzi, l'articolo parla di calcolo vettoriale quindi calcolo vettoriale(applicazioni non me ne vengono in mente )

se si tratta di un solo megawatt potrei anche pensare di metterne uno in casa XD

costo del prodotto consegnato?
Xadhoomx21 Giugno 2010, 12:52 #3
Simulazioni geosismiche anche tsunami
Folding proteico
Simulazioni strutturali
Simulazioni meteo
Simulazioni nucleari
Simulazione di collisioni subatomiche
Simulazione mercato finanziario
Scoperta di numeri primi per sistemi crittografici


Certo non per giocare a Crysis

Spesso questi computer vengono poi affittati o sono general purpose per chi lo costruisce e ci fanno cosa gli pare.
II ARROWS21 Giugno 2010, 12:52 #4
Se avessero usato GPU ATi avrebbero ottenuto una capacità elaborativa migliore per singolo elemento...
intermut8221 Giugno 2010, 12:59 #5
be certo non e un computer per poter giocare....
Giustaf21 Giugno 2010, 13:04 #6
Originariamente inviato da: intermut82
be certo non e un computer per poter giocare....


che sfiga... e io che volevo giocarci a Metro 2033...
sopress21 Giugno 2010, 13:12 #7
Originariamente inviato da: Abadir
A cosa serve un supercomputer di questo tipo?


è scritto nell'articolo: "Utilizzando sistemi di stima metereologica, che ben si adattano alla computazione vettoriale, è possibile ottenere una potenza di picco di 150 TeraFLOPS, circa il triplo del massimo attualmente ottenibile per questi scenari di elaborazione."
sopress21 Giugno 2010, 13:12 #8
Originariamente inviato da: II ARROWS
Se avessero usato GPU ATi avrebbero ottenuto una capacitÃ* elaborativa migliore per singolo elemento...


mandagli una mail e rimproverali!
AceGranger21 Giugno 2010, 13:13 #9
Originariamente inviato da: II ARROWS
Se avessero usato GPU ATi avrebbero ottenuto una capacitÃ* elaborativa migliore per singolo elemento...


si come no... avessero messo ati ci sarebbe girata ben poca roba;

http://www.nvidia.it/object/cuda_app_tesla_it.html

only CUDA, e con Tsubame 1 gia con Tesla s1070

tutta roba gia disponibile e con supporto nVidia, cose che ti scordi con ATI
Sapo8421 Giugno 2010, 13:38 #10
Originariamente inviato da: II ARROWS
Se avessero usato GPU ATi avrebbero ottenuto una capacitÃ* elaborativa migliore per singolo elemento...

Come no.
- Niente CUDA quindi dovrebbero riprogrammare tutto.
- Prestazioni in double precision inferiori (Fermi per HTC in DP ha la metà delle prestazioni rispetto alle SP, le ati 5*** 1/5)
- Architettura della memoria (varie cache ecc ecc) inferiore e quindi quasi sicuramente minore efficienza per la stragrande maggioranza dei calcoli
- Niente memorie ECC

L'architettura è stata pensata per il GPGPU, dire che quella ATI sarebbe stata migliore fa veramente ridere, soprattutto andando a contestare il lavoro di gente che questo lo fa per mestiere

P.S. http://www.nvidia.com/content/PDF/f..._Whitepaper.pdf

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^