Raffreddamento a liquido e approccio modulare: è Hive la proposta italiana per l'HPC

Raffreddamento a liquido e approccio modulare: è Hive la proposta italiana per l'HPC

Eurotech presenta Hive, il proprio sistema modulare per il calcolo parallelo che abbina architetture di tipo differente per la componente CPU e per quella GPU condendo il tutto con un sistema di raffreddamento a liquido completamente integrato. Massima efficienza energetica per prestazioni da supercomputer

di pubblicata il , alle 10:31 nel canale Private Cloud
 

E' legato al concetto di modularità il nuovo sistema di calcolo ad elevate prestazioni che l'italiana Eurotech ha presentato in questi giorni in occasione di SC14. Parliamo di Hive (High Velocity), nome dietro al quale si cela una nuova soluzione appartenente alla famiglia di sistemi HPC Aurora che utilizza come base l'architettura "Brick".

La logica è intuitiva, basata su quello che è lo sviluppo attuale delle infrastrutture di calcolo parallelo. Ogni moduli Hive può ospitare al proprio interno una combinazione di processori basati su architettura x86 oppure ARM, a seconda delle specifiche esigenze, abbinando a questi acceleratori Intel o NVIDIA oltre a specifiche soluzioni collegate via PCI Express. Eurotech propone alcune combinazioni predefinite che sono disponibili da subito ma nel corso dei prossimi mesi saranno proposte anche altre combinazioni di componenti interne ferma restando la possibilità di sviluppare un design interno custom per specifiche esigenze.

eurotech_hive_1.jpg (25442 bytes)
particolare di un modulo Hive; sul retro i connettori per il raffreddamento a liquido

Ogni modulo è raffreddato con un sistema a liquido di tipo caldo, posizionato a diretto contatto con i componenti che generano calore durante il funzionamento. In ogni modulo possono trovare posto sino a 5 GPU Intel della famiglia Xeon Phi oppure NVIDIA della gamma Tesla, accanto ai processori che come indicato possono essere tradizionali x86 oppure basati su architettura ARM. Non mancano connessioni di rete Infiniband oltre a funzionalità aggiuntive, come visualizzazione e storage locale veloce.

Ogni nodo viene assemblato accanto ad altri, potendone integrare sino ad un massimo di 128 all'interno di un singolo armadio rack, montandone 64 per ciascuno dei pannelli laterali e inserendo all'interno dell'armadio il sistema di distribuzione del liquido di raffreddamento. La risultante è un incremento dell'efficienza complessiva e l'ottenimento di una densità di oltre 750 TFlop/s in doppia precisione per metro quadrato di superficie occupata nel centro di calcolo.

Fabio Gallo, managing director della divisione HPC ad Eurotech, ha affermato che “con l’introduzione di Aurora Hive Eurotech spinge la computazione accelerata verso livelli di efficienza energetica e densità totalmente inesplorati. Gli Hive rappresentano un passo importante verso sistemi Exascale tecnicamente fattibili ed economicamente gestibili”. Uno dei principali colli di bottiglia dei sistemi di calcolo di ultima generazione è la necessità di ottenere incrementi nella potenza di elaborazione bilanciando il tutto con consumi contenuti. L'efficienza energetica passa anche una ottimale gestione del raffreddamento, così che al datacenter non venga richiesto un consumo addizionale, richiesto per mantenere la temperatura della sala dati entro valori limite, accanto a quello per alimentare il sistema.

eurotech_hive_2.jpg (65927 bytes)
Rack con moduli Hive inseriti

I sistemi Hive utilizzano la seconda generazione di sistema di raffreddamento a liquido sviluppata da Eurotech, indicata con il nome di Aurora Direct Hot Water Cooling. In questa implementazione il sistema guadagna in leggerezza rispetto alla prima versione, riuscendo ad essere anche più compatto e quindi incrementare la densità di elaborazione dei sistemi di almeno il 20%. Sono svariati gli ambiti di calcolo parallelo nei quali un sistema di questo tipo può essere utilizzato: citiamo tra i tanti fisica delle alte energie (QCD), bioinformatica, dinamica molecolare, CAE, machine learning, finanza computazionale, rendering su GPU e l’analisi sismica dei dati sulla ricerca petrolifera.

7 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
frankie19 Novembre 2014, 10:43 #1
X gli smanettoni, ad acqua calda si intende che il sistema non gira con 18° ma con 50°?
Non riesco a capire i vantaggi?

cronos199019 Novembre 2014, 10:50 #2
Originariamente inviato da: frankie
X gli smanettoni, ad acqua calda si intende che il sistema non gira con 18° ma con 50°?
Non riesco a capire i vantaggi?
Premesso che neanche io comprendo il significato di quel concetto, non parla di acqua calda ma di "liquido di tipo caldo".

Presumo utilizzi un liquido che ha determinate caratteristiche che rientrano nella definizione di "liquido caldo".
martelcris19 Novembre 2014, 11:20 #3
Originariamente inviato da: cronos1990
Premesso che neanche io comprendo il significato di quel concetto, non parla di acqua calda ma di "liquido di tipo caldo".

Presumo utilizzi un liquido che ha determinate caratteristiche che rientrano nella definizione di "liquido caldo".


Se mantieni il liquido, per esempio a 50/60 °c ( con un buon scambiatore il processore può restare a 75 °C che è una tempratura accettabile) puoi recuperare e riutilizzare il calore per riscaldare acqua calda sanitaria o degli uffici oppure d'estate con un gruppo ad assorbimento generare acqua fredda per il condizionamento
lucusta19 Novembre 2014, 11:33 #4
il sistema, da quanto leggo, e' con un in di 50°C, e presumibilmente con un out sui 70-90°C; e' "direct liquid cooling" (As the first company in the industry to propose a direct on component hot water cooled HPC system).
i vantaggi sono nello scambio termico:
piu' e' alta la differenza di temperatura tra' corpo caldo e corpo freddo, piu' e' alto lo scambio di calore.
ora, se sei in antartico hai una buona possibilita' di dissipare facilmente calore da una fonte di 18°C, ma se sei ai tropici...
alzando la temperatura operativa dei componenti (che a 70°C lavorano comunque efficientemente, visto che hanno giunzioni adatte anche a 140°C per lo standard militare), non hai problemi a reperire una fonte di freddo con cui raffreddare il tuo liquido di scambio termico.
anche nel paese piu' caldo non supereresti i 50°C.
eviti i chill (il raffreddamento attivo tramite gruppi di raffreddamento); se il sistema di raffreddamento e' delocalizzabile eviti anche di raffreddare la stanza (sara' un massacro per i tecnici, ma sai quanto risparmi in elettricita'!).

il guadagno e' solo in questo: abbassi il consumo energetico per il raffreddamento, in quanto sfrutti i principi del trasferimento di calore da fonti naturali, evitando di generare freddo, anzi... in zone fredde puoi recuperare il calore per scaldare gli ambienti in cui i dipendenti lavorano...

fuori da un centro di calcolo ha poco senso questo tipo di tecnologia, ma in un centro elaborazione dati...

il raffreddamento diretto e' probabilmente possibile perche' i componenti sono interamente isolati dall'ambiente; probabilmente il layout e' poco spesso e molto uniforme, e viene il tutto affogato in resina (percio' difficilmente riparabile, in quanto non ci arrivi fisicamente alla componentistica).

questo invece e' un concetto altamente sfruttabile dalla normale elettronica di consumo:
prendiamo una scheda madre di un tablet, di per se poco spessa ed altamente integrata; l'affoghiamo in resina epossidica e nel tutto ci affoghiamo anche delle heatpipe, ben posizionate sui punti caldi con buoni diffusori di calore (piastre di rame) che portano ad un sistema alettato esterno alla resina, magari su un lato.
diventa impermeabile, il calore e' delocalizzabile in punti precisi, quindi si evitano punti caldi poco ergonomici; e' molto piu' resistente..
gli svantaggi sono che diventano praticamente irreparabili, ma tanto gia' lo sono...

e' come se tu prendessi l'HW del tuo desktop ed invece di mettergli un case lo frezzi in un blocco di resina.... sarebbe pure carino da guardare.
Catan19 Novembre 2014, 11:39 #5
No proprio cosi, i sistemi di raffreddamento ad "acqua calda" (per calda si indica 45-50° circa) servono per eliminare un problema tipico dei nostri sistemi a liquido casalinghi, cioè che il liquido è influenzato dalla temperatura ambiente, mantenendo la temperatura costante, ad un temperatura che richiede poco dispendio energetico per tenerla costante. (Tenerla a 20° è un dispendio immane di energia, tradotto di costi per l'affare che raffredda il liquido e quindi corrente elettrica) permette di montare quei rack ovunque, dal polo nord al deserto, visto che ti stai "sganciando" alla T ambiente
Che poi come effetto collaterale se vuoi il resto dell'acqua la mandi in giro per i termosifoni è un'altro conto, ma non è il punto del sistema ad acqua calda.
lucusta19 Novembre 2014, 11:51 #6
liquidi particolari si possono usare tranquillamente in direct cooling (fatto io stesso con PTFT fluorinert e galden), ma il loro CP e' inferiore all'acqua, oltre il costo (al tempo 500.000 al litro, e sono liquidi con una densita' da 1.8 a 2.2 Kg/l).
convengono solo in fase di vapore sfruttando il calore latente di evaporazione, come faceva Cray sui suoi vecchi supercomputer, o se li porti a livelli di temperatura bassissimi (visto che alcuni congelano a -140°C, ma fino a -100°C mantengono una buona viscosita').
sono liquidi dielettrici, ossia non trasportano elettricita'.

l'acqua pero' e' il miglior liquido per lo scambio termico, soprattutto a temperature tra' i 50 e i 100°C (poi si deve andare sulle leghe metalliche liquide tipo il gallistan http://it.wikipedia.org/wiki/Galinstano che usa apple e che e' il sostituto del mercurio nei termometri), e ci sono resine epossidiche addizionate che hanno un buon CP a quelle temperature... quindi oggi credo sia piu' economico ed efficiente un sistema di questo tipo che un sottoraffreddamento.

e' vero che a temperature sottozero si puo' overclockare ed ottenere piu' prestazioni, ma l'efficienza sciama rapidamente:
i nuovi chip, se avete notato, ottengono una elevatissima efficienza a clock relativamente bassi, pur riuscendo a clockare anche oltre il doppio; solo che al doppio delle prestazioni (che reali sono molto di meno, perche' la scalabilita' non e' del 100%) consumano 3 o 4 volte di piu'.
e' dovuto alla temperatura del chip, che ne aumenta la resistenza...
io raffreddo e cosi' il chip rimane prestazionale ed efficacie!
solo che per raffreddare adeguatamente ci vuole un sistema che arriva a consumare fino al doppio di quanto calore deve sottrarre, ossia perdo inesorabilmente in efficienza.
per sistemi di calcolo esteso conviene aumentare le unita' lente ma efficienti piuttosto che pochi chip ma portati al loro estremo;
sono meno ingombranti, perche' un raffreddamento attivo di quel tipo e' realmente grosso, e sono anche piu' economici, perche' il raffreddamento attivo (un chill a doppio o triplo stadio o a NL2) e' sia grosso che costoso.

in finale meglio 1000 ARM A7 che un solo 16 core sparato a 6ghz, almeno in certi ambiti computazionali.
IronDany8701 Dicembre 2014, 13:15 #7
wow sembra interessante

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^