Sistemi di raffreddamento a liquido anche per i server nei datacenter

Sistemi di raffreddamento a liquido anche per i server nei datacenter

Asetek propone nuovi approcci al raffreddamento di CPU e GPU all'interno dei più recenti server rack: 3 tipologie di kit a liquido con i quali meglio gestire consumi e temperature all'interno delle sale dati

di Paolo Corsini pubblicata il , alle 08:14 nel canale Server e Workstation
 

Server e sistemi di raffreddamento a liquido: un abbinamento che può apparentemente sembrare quasi blasfemo ma che all'atto pratico proprio non è. Sistemi a liquido, infatti, garantiscono una soluzione di raffreddamento del processore ideale per molti server ad elevata densità in quanto permettono di contenere le temperature anche con spazi molto ridotti. La superiore efficienza termica dei liquidi rispetto a quella dell'aria è del resto ben nota: un liquido immagazzina calore più velocemente dell'aria, facilitando l'operazione di trasferimento del calore da un punto caldo ad uno più freddo.

I sistemi a liquido, quando configurati per questo, permettono di trasferire il calore lontano dai server attraverso il flusso d'acqua che scorre in tubature, così che possa venir ceduto più efficacemente direttamente all'esterno e non veicolato all'interno del datacenter così come accade con tradizionali approcci basati su raffreddamento ad aria. Un design di questo tipo riduce, se non elimina del tutto, i requisiti per sistemi di condizionamento dell'aria interna alla sala dati, diminuendo in modo incisivo una delle principali voci di costo interne ai datacenter.

E' proprio con l'obiettivo di assicurare una migliore dissipazione termica unicamente ad una contrazione dei costi fissi che Asetek, azienda che da tempo è impegnata nella produzione di sistemi di raffreddamento a liquido per clienti OEM, ha annunciato una nuova gamma di prodotti specificamente indirizza all'utilizzo all'interno dei datacenter in abbinamento a sistemi server rack. Sono al momento 3 le tipologie di sistemi di raffreddamento di questo tipo proposti da Asetek:

asetek_server_water_1.jpg (39063 bytes)

Internal Loop Liquid Cooling è un sistema integrato che ricorda molto da vicino i kit a liquido per sistemi desktop: troviamo waterblock con pompa integrata, grazie alla quale il liquido di raffreddamento circola all'interno di un radiatore sul quale sono montate tradizionali ventole per sistemi rack a 1 unità. La risultante è quella di permettere una elevata dissipazione termica dei processori mantenendo uno sviluppo in altezza compatibile con quella dei rack a 1 unità. L'approccio prevede quindi un sistema a liquido interno al server, con cessione del calore all'esterno che viene assicurata sempre dall'aria soffiata dalle ventole: in questo caso il circuito a liquido è posto a cavallo tra componente da dissipare (CPU o GPU) e ventole interne al server.

asetek_server_water_2.jpg (29551 bytes)

Rack CDU Liquid Cooling è un sistema in armadio rack che integra sia i server, in formato rack di varie dimensioni, sia un sistema di distribuzione del liquido di raffreddamento. Con questo approccio il calore immagazzinato dal liquido viene trasferito all'esterno del data center, dove verrà poi trattato per essere ceduto all'ambiente. All'interno di ogni server vengono installati sui componenti da raffreddare dei waterblock con pompa integrata, collegati in circuito al sistema di distribuzione del liquido integrato nel Rack CDU. Un approccio di questo tipo permette, quantomeno in teoria, di non dover integrare un sistema di aria condizionata all'interno del datacenter in quanto il calore, attraverso il liquido, può essere portato anche all'esterno della struttura.

asetek_server_water_3.jpg (56196 bytes)

Sealed Server Liquid Cooling, infine, prevede sempre waterblock con pompa per ciascun componente interno al server che debba essere dissipato. Il circuito interno, completamente chiuso, viene veicolato ad un radiatore interno al server che raffredda aria soffiata a sua volta all'interno del server, così da raffreddare in modo tradizionale gli altri componenti interni. Il calore immagazzinato dal liquido viene quindi ceduto verso l'esterno attraverso un sistema basato su Rack CDU, mantenendo tuttavia il sistema interno al server come completamente chiuso in quanto il liquido continua a scorrere all'interno del server e non portato all'esterno. Nell'immagine si nota la placca posizionata in fondo al server rack, grazie alla quale il calore immagazzinato dal sistema di raffreddamento interno viene ceduto al Rack CDU; a sua volta da questo componente il calore verrà portato all'esterno così da venir ceduto, riducendo fortemente i requisiti di condizionamento dell'aria interna al data center.

L'approccio sviluppato da Asetek è indubbiamente interessante: resta ora da capire quali produttori di sistemi server rack sceglieranno di adottare un design di questo tipo. Riteniamo probabile che queste tecnologie verranno adottate non tanto in abbinamento a un ridotto numero di server quanto per installazioni di una certa portata, pensando nello specifico a cluster di calcolo per ambiti HPC con un elevato numero di server rack che operano in parallelo. Ulteriori informazioni su questi sistemi sono disponibili sul sito Asetek a questo indirizzo.

11 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
Paganetor04 Gennaio 2012, 10:19 #1
quando costruiscono nuovi datacenter potrebbero sfruttare la geotermia! Raccattano acqua di falta a 16-18° e la fanno girare nei vari server... risparmierebbero parecchio!
Veradun04 Gennaio 2012, 10:35 #2
Veramente inutile, maggiori rischi e costi per ottenere cosa, minor impatto acustico in sale acusticamente isolate? Bah...
frankie04 Gennaio 2012, 12:08 #3
mi sa che non hai capito molto: il maggior costo in un data center è la climatizzazione, e questa è una delle soluzioni possibili
Veradun04 Gennaio 2012, 12:36 #4
Originariamente inviato da: frankie
mi sa che non hai capito molto: il maggior costo in un data center è la climatizzazione, e questa è una delle soluzioni possibili


Questo è quello che dice un PR di chi vuol venderti questa roba. La realtà è che il maggior costo di un datacenter è e sempre sarà avere problemi di affidabilità, e un sistema a liquido per quanto sicuro non darà mai le garanzie di quello classico ad aria forzata.

Se sul classico 2U mi si rompe una ventola ne ho 6 e ho tutto il tempo di cambiarla a caldo, se mi si rompe un tubo ho un fermo macchina e devo buttar via la macchina su cui ho avuto il danno.

Altra cosa che non hai capito è che il calore generato dalle macchine non scompare nel nulla grazie ad un raffreddamento a liquido, ma ha solo un passaggio intermedio nel liquido e deve smaltito nell'ambiente del datacenter dopo il passaggio radiatore->aria.
Dreadnought04 Gennaio 2012, 12:41 #5
Mah, un conto se un vendor con una certa qualità implementa il liquido nei suoi server, ma se devo prendere dei server sconosciuti/anonimi per avere il raffreddamento a liquido per risparmiare cosa? il 10-20% dei costi di esercizio?!

Poi non è che i condizionatori si possono evitare: gli switch e gli storage come li raffreddo? Devo comunque condizionare.

Ma poi in italia abbiamo già raggiunto il fondo del barile nella qualità delle infrastrutture dei datacenter, semmai dovremmo eliminare queste porcate ed iniziare a pensare a come rendere più qualitativi i datacenter, con servizi proattivi e design di architetture con disaster recovery e ridondanza completa.
SilverLian04 Gennaio 2012, 13:42 #6
la ventola si può rompere perchè cmq sollecitata ed è un meccanismo che gira..ma un tubo come fa a rompersi? ha la stessa probabilità che si rompa il tubo del condizionatore...
Veradun04 Gennaio 2012, 16:07 #7
Originariamente inviato da: SilverLian
la ventola si può rompere perchè cmq sollecitata ed è un meccanismo che gira..ma un tubo come fa a rompersi? ha la stessa probabilità che si rompa il tubo del condizionatore...


Si, con la differenza che il condizionamento nessuno è così stupido da metterlo sopra in linea retta ai server, mentre qui il suggerimento metterlo direttamente dentro
Bloody Tears04 Gennaio 2012, 16:13 #8
Se non è il tubo ma si rompe la pompa? Il liquido non gira + e poi che si fa?
Sistemi del genere vanno bene in soluzioni integrate e di un certo livello (tipo il progetto datacenter ibm in cui si raffreddava tutto ad acqua e l'acqua calda veniva utilizzata per riscaldare un paesino) in cui puoi avere sistemi di controllo ad hoc.
MaraFonte04 Gennaio 2012, 16:55 #9
Originariamente inviato da: Veradun
Si, con la differenza che il condizionamento nessuno è così stupido da metterlo sopra in linea retta ai server, mentre qui il suggerimento metterlo direttamente dentro


nel 100% dei casi nei tubi dei climatizzatori gira gas e se si rompe il tubo contenente il gas condensato (e non si rompe) esce un liquido che all'istante diventa gas, se invece gira acqua refrigerata non è certo un climatizzatore si è di fronte ad una UTA (unità di trattamento aria)

Comunque è più probabile che si rompa la pompa più che i tubi ma la soluzione è banale, basta mettere 2 pompe ognuna in grado di garantire il raffreddamento se una si ferma gira l'altra!
Dreadnought06 Gennaio 2012, 18:57 #10
Originariamente inviato da: MaraFonte
Comunque è più probabile che si rompa la pompa più che i tubi ma la soluzione è banale, basta mettere 2 pompe ognuna in grado di garantire il raffreddamento se una si ferma gira l'altra!


Peccato che mentre nei server se hai ad esempio 'N' ventole tutte sono indipendenti tra loro e di norma ne bastano n-1 o n-2, quindi possono rompersene alcune senza problemi, nel caso di una pompa per un circuito non è banale il discorso perché:
1) due pompe non lavorano insieme sullo stesso liquido
2) se salta una pompa deve entrare subito l'altra in funzione, cosa che nessuno garantisce, soprattutto dopo mesi o anni di non-funzionamento
3) serve un arbitro che gestisca il failover delle pompe, un flussometro che senta quando una pompa non funziona o quando funziona male: tutto questo aggiunge complessità.
Il tutto senza contare che le ventole nei server (Rack o Blade) le cambi senza spegnere, una pompa non penso proprio.

Sinceramente... Preferisco le ventole!
Anche perché nei sistemi blade sono spesso condivise e in "Raid" per avere massima affidabilità ed efficienza.

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^