Un supercomputer ibrido per Cineca tra i top 100 mondiali

Un supercomputer ibrido per Cineca tra i top 100 mondiali

Annunciata una nuova architettura di calcolo ibrida, con CPU e GPU, per Cineca: è la più veloce tra quelle nazionali e la numero 54 a livello mondiale

di pubblicata il , alle 10:16 nel canale Private Cloud
 

Un nuovo supercomputer ibrido, che abbina quindi al proprio interno architettura di CPU x86 tradizionale con quella delle GPU, è stato annunciato ufficialmente dal CINECA: si tratta della soluzione che è entrata alla posizione numero 54 tra i 500 più veloci supercomputer presenti sulla terra, oltre che quella più veloce presente in Italia.

L'architettura prevede un cluster PLX dotato di 274 nodi server IBM iDataPlex M3, ciascuno con due processori Intel Xeon della famiglia 5500 dotati di architettura a 4 core, abbinati a 24 Gbytes di memoria fisica. Sono inoltre presenti 10 nodi ulteriori, sempre IBM iDataPlex M3, ciascuno dotato di 2 GPU NVIDIA Tesla M2070. Ulteriori dettagli sulla configurazione hardware sono disponibili sul sito Cineca a questo indirizzo.

Questa configurazione permette di avere a disposizione una potenza di elaborazione massima che raggiunge di picco i 293 TeraFLOPs, grazie all'abbinamento dei 3.072 core x86 totali e delle GPU NVIDIA Tesla. Al momento attuale il sistema è destinato all'utilizzo in elaborazioni legate a fluidodinamica, scienze dei materiali e geofisica, restando a disposizione anche a ricercatori europei in quanto incluso quale sistema Tier-1 nell'infrastruttura Prace.

L'approccio è di tipo ibrido ma è evidentemente sbilanciato verso il lato CPU considerando il numero di nodi solo CPU rispetto a quelli dotati anche di GPU. L'integrazione di GPU Tesla permette di sfruttare codice pensato per GPU Computing in quegli ambiti applicativi per i quali l'elaborazione su GPU permetta di ottenere tangibili incrementi prestazionali, lasciando le tradizionali CPU per il resto.

La lista completa dei top 500 supercomputer mondiali, aggiornata nei giorni scorsi in occasione dell'International Supercomputing Conference di Amburgo, è disponibile online a questo indirizzo.

22 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
Paganetor27 Giugno 2011, 10:28 #1
ma c'è davvero una simile richiesta di capacità computazionale?
Yasha27 Giugno 2011, 10:33 #2
Originariamente inviato da: Paganetor
ma c'è davvero una simile richiesta di capacità computazionale?


Link ad immagine (click per visualizzarla)
axse27 Giugno 2011, 10:44 #3
Sapete a cosa servono quelle GPU? a far salire il conto dei FLOPs senza spendere troppo e far tornare (almeno a parole) il Cineca nei top 100. I politici e le università che lo finanziano non hanno la più pallida idea di cosa serva veramente ad un supercomputer e di quale sia veramente il suo livello. A loro basta che se ne parli e che il Cineca vada nei titoli.
Se poi il computer è un accrocchio che non verrà mai utilizzato nella sua interezza non importa a nessuno. Basta che si assicurato lo stipendio per tutti quei dipendenti pubblici....
avvelenato27 Giugno 2011, 11:11 #4
Originariamente inviato da: axse
Sapete a cosa servono quelle GPU? a far salire il conto dei FLOPs senza spendere troppo e far tornare (almeno a parole) il Cineca nei top 100. I politici e le università che lo finanziano non hanno la più pallida idea di cosa serva veramente ad un supercomputer e di quale sia veramente il suo livello. A loro basta che se ne parli e che il Cineca vada nei titoli.
Se poi il computer è un accrocchio che non verrà mai utilizzato nella sua interezza non importa a nessuno. Basta che si assicurato lo stipendio per tutti quei dipendenti pubblici....


citazione necessaria
avvelenato27 Giugno 2011, 11:17 #5
Originariamente inviato da: Paganetor
ma c'è davvero una simile richiesta di capacità computazionale?


tutto quello che oggi viene elaborato grazie a supercomputer (dal meteo alla ricerca medica passando per le simulazioni industriali e militari) è fronte di una modellazione numerica di equazioni matematiche;
Questi modelli devono necessariamente essere semplificati perché non è possibile arrivare a un grado di precisione infinita, e quindi ci si ferma fin dove è conveniente o ragionevole.

Faccio un esempio per il meteo: poniamo che le equazioni tengono conto fino alla decima cifra dopo la virgola. Ma magari l'undicesima cifra produce delle variazioni che a lungo termine rendono le previsioni inaffidabili (nel senso che se l'ultima cifra è un 1 oppure un 4 il risultato delle previsioni meteo tra una settimana cambiano drasticamente).

Avere un supercomputer più potente ti permette di usare una modellazione numerica più complessa, meno semplificata, e quindi avere maggior accuratezza tra le previsioni del modello e l'effettivo riscontro empirico.

Per approfondire ti consiglio l'evergreen "Chaos" di Gleick
Eraser|8527 Giugno 2011, 11:35 #6
Io ho avuto all'università il Dr. G. Erbacci, coordinatore del gruppo di supercalcolo della divisione HPC del Cineca. Era già da diversi anni che si stavano interessando all'argomento anche se ricordo fosse un po' scettico riguardo la fattibilità della cosa. Quando alla fine del corso ci fece esporre le nostre tesine sul mondo HPC, rimase incuriosito dalla mia sull'OpenCL e volle saperne di più. Probabilemente il computer di cui la notizia parla è stato creato proprio per essere sfruttato con le OpenCL.. quindi state pur certi che verrà utilizzato, non starà lì solo per sbandierare numeri
rb120527 Giugno 2011, 11:56 #7
Originariamente inviato da: axse
Sapete a cosa servono quelle GPU? a far salire il conto dei FLOPs senza spendere troppo e far tornare (almeno a parole) il Cineca nei top 100. I politici e le università che lo finanziano non hanno la più pallida idea di cosa serva veramente ad un supercomputer e di quale sia veramente il suo livello. A loro basta che se ne parli e che il Cineca vada nei titoli.
Se poi il computer è un accrocchio che non verrà mai utilizzato nella sua interezza non importa a nessuno. Basta che si assicurato lo stipendio per tutti quei dipendenti pubblici....


Qualunquismo spiccio fino a prova contraria.

Molti dei supercomputer elencati nella top500 sono ibridi, sarebbero tutti cluster fatti per fare ammuina?
axse27 Giugno 2011, 12:08 #8
Caro Avvelenato,

3 anni al cineca ti bastano come citazione?
Se tu lavori li, magari da tempo, forse non ti rendi conto come nel mondo privatoi sia necessario correre con ben altri ritmi. E che siano i parametri di efficacia ed efficienza a mostrare cosa vale la pena di fare e cosa no.
Il cineca, pur includendo grandi persone e garantendo l'esistenza di interessantissimi programmi di ricerca, è una istituzione pubblica, i cui dipendenti, e soprattutto i suoi direttori, passano molto più tempo a curare gli aspetti politici della loro attività che quelli pratici.
Le caratteristiche di questo supercomputer lo mostrano. mi sembrano tanto due diverse macchine, citate come un'unico giusto per mettere dei numerini dentro la top 100. Quando ci sarà un progetto in grado di utilizzare le molte Cpu e le poche GPu contemporaneamente mi ricrederò.
avvelenato27 Giugno 2011, 13:23 #9
Originariamente inviato da: axse
Caro Avvelenato,

3 anni al cineca ti bastano come citazione?
Se tu lavori li, magari da tempo, forse non ti rendi conto come nel mondo privatoi sia necessario correre con ben altri ritmi. E che siano i parametri di efficacia ed efficienza a mostrare cosa vale la pena di fare e cosa no.
Il cineca, pur includendo grandi persone e garantendo l'esistenza di interessantissimi programmi di ricerca, è una istituzione pubblica, i cui dipendenti, e soprattutto i suoi direttori, passano molto più tempo a curare gli aspetti politici della loro attività che quelli pratici.
Le caratteristiche di questo supercomputer lo mostrano. mi sembrano tanto due diverse macchine, citate come un'unico giusto per mettere dei numerini dentro la top 100. Quando ci sarà un progetto in grado di utilizzare le molte Cpu e le poche GPu contemporaneamente mi ricrederò.


no, 3 anni al cineca non mi bastano: argomento ad auctoritatem. E poi se ci pensi bene potresti aver fatto 3 anni come spazzino, cioé, non per dubitare della tua parola (siamo due anonimi in un forum, che interessi avresti a mentire?)
Argomenta meglio e potrai convincermi

Per quanto riguarda le caratteristiche di questo sistema, beh io ho pensato molto banalmente che dovesse eseguire degli algoritmi composti da parti poco parallelizzabili (cpu) e parti ampiamente parallelizzabili.
E' inutile fare un'architettura gpu-cpu simmetrica se poi gli algoritmi destinati a girarci sopra non scalano a dovere, non credi?
bongo7427 Giugno 2011, 13:45 #10
strano che usino RHEL4, io uso la 5.6 ed è stabile alla massima potenza (vabbè che io la uso su un celeron420 non proprio la stessa cosa)

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^