A Losanna fra NVIDIA Tesla, calcolo e cardiologia

A Losanna fra NVIDIA Tesla, calcolo e cardiologia

Una visita organizzata quasi per caso. La meta? Il Politecnico Federale di Losanna, nella vicina Svizzera. NVIDIA e E4 Computer Engineering ci hanno assicurato che vale la pena fare un giro da quelle parti, sia per vedere un sistema NVIDIA Tesla all'opera, sia per capire a cosa servano effettivamente. Mettiamo da parte lo scetticismo e si parte. Losanna è proprio dall'altra parte delle Alpi.

di Alessandro Bordin pubblicato il nel canale Server e Workstation
NVIDIATesla
 

Il centro di calcolo

In realtà di IBM BlueGene abbiamo già parlato senza farne il nome. Si tratta del supercomputer a disposizione del Politecnico, conteso da più gruppi di lavoro e con una lista di attesa che può arrivare a mesi. E', nel nostro resoconto di viaggio, una comparsa. Due le soluzioni per il gruppo di lavoro del Dottor Melchionna: aspettare il proprio turno, magari attendendo per mesi, oppure chiedere una unità di calcolo nuova, pur tenendo conto dell'impossibilità di poter chiedere un supercomputer tradizionale tutto per sé. Siamo in un Paese ricco, certo, ma un supercomputer ha un prezzo che si misura in centinaia di migliaia di Euro se non di più (Franchi Svizzeri, da queste parti), motivo per cui, interpellati gli esperti di settore, E4 Computer Engineering ha consigliato il ricorso al GPU computing.


Da sinistra a destra: Edmondo Orlotti (NVIDIA), Paolo Corsini (Hardware Upgrade), Dr. Simone Melchionna

Dopo aver considerato la tipologia dei calcoli da sottoporre alla macchina, il personale E4 Computer Engineering ha capito che lo scenario ben si prestava al GPU Computing, permettendo così di realizzare alcune macchine ad-hoc, spendendo una frazione del denaro necessario ad acquistare un supercomputer. Si tratta ovviamente di scenari che vanno valutati caso per caso, poiché tutto dipende da molti fattori. Alcuni scenari richiedono macchine tradizionali, in quanto il GPU Computing risulterebbe poco adatto per il proprio modo di eseguire calcoli. Altri invece ben si prestano a questo scenario, come nel caso del gruppo di lavoro del Dottor Melchionna.

Fissata in circa 10-20 Teraflop la potenza necessaria, la proposta E4 Computer Engineering si è concretizzata in un rack con le seguenti componenti:

EPFL hybrid cluster

1 front-end
CPU: 2 x Intel Xeon E5520 2,26GHz
RAM: 6 x 2GB DDR3 1333MHz
HD: 2 x 500GB SATA RAID1
Network: 2x 1GbE
8 unità 1U rack E7118 con 16 computing nodes ciascuna
CPU: 2 x Intel Xeon E5520 2,26GHz per scheda madre
RAM: 12 x 4GB DDR3 1333MHz
HD: 2X 500GB SATA
Network: 2x 1GbE, 1x IB DDR 20Gb/s
8 unità 1U GPU computing
NVIDIA Tesla S1070-500
Storage
Panasas Storage Cluster
3 x director blades
8 x storage blades da 2TeraBytes ciascuno

Oltre ad un tradizionale server front end, necessario per l'amministrazione e per le operazioni di routine, il cluster ibrido consiste in un armadio contente 8 coppie di server rack ad una unità: si tratta di soluzioni cosiddette Twin, nelle quali vengono montati due server dual Socket indipendenti che condividono lo chassis rack a 1 unità e l'alimentazione, così da massimizzare la capacità di elaborazione. Ad un server con 16 computing nodes fisici (dovuti alla presenza di due schede madri in ogni unità rack, ciascuna a doppio socket con processore Intel Xeon E5520 Quad Core), viene affiancato un server rack 1U Nvidia Tesla S1070-500, le cui caratteristiche sono riassunte nella seguente tabella.

Il server NVIDIA include quattro GPU Tesla T10, ciascuna montata su un dingolo PCB, operanti alle frequenze di 1,44GHz o 1,296GHz a seconda delle configurazioni: le proposte adottate per questa installazione sono quelle con frequenza di clock di 1,44 GHz. Il picco di calcolo di ogni singola macchina Tesla ammonta a pco più di 4 Teraflop in single precision e circa 345 Gigaflop in double precision; l'utilizzo di questo cluster svolto all'EPFL prevede principalmente elaborazioni in single precision, grazie alle quali il sistema Tesla può assicurare una capacità elaborativa molto elevata. L'adozione di 8 macchine Tesla porta quindi la potenza di calcolo al picco di ben 32 Teraflop circa in singola precisione, andando quindi a soddisfare le esigenze del gruppo di ricerca.

Il sistema Tesla S1070 prevede un collegamento diretto di ogni coppia di GPU ad un server: l'utilizzo di server rack twin permette quindi di gestire in modo autonomo con un rack 1 unità un sistema Tesla S1070, con ogni coppia di GPU che ha a disposizione un server dual socket con processori Intel Xeon E5520, per un totale di 16 core logici. Oltre alle macchine indicate, viene fornita anche tutta l'infrastruttura di networking e di storage: assieme a Switch Ethernet 48 porte 1Gb/s + 2 porte10Gb/s, trova spazio nell'armadio anche uno Switch InfiniBand 24 porte DDR 20GB/s, affiancato da un sottosistema storage PANASAS.

 
^