CPU ARM e GPU NVIDIA Tesla K20 anche per i supercomputer

CPU ARM e GPU NVIDIA Tesla K20 anche per i supercomputer

La ricetta per avere tanta potenza di calcolo per applicazioni scientifiche e HPC è, per NVIDIA, ottenuta abbinando CPU ARM a basso consumo alle GPU Tesla K20. Tutto questo sfruttando la piattaforma di programmazione CUDA 6.5

di pubblicata il , alle 11:35 nel canale Private Cloud
NVIDIAARMCUDATesla
 

Importante annuncio quello di NVIDIA alla International Supercomputing Conference, che ha presentato la propria prima piattaforma per il calcolo parallelo che abbina GPU della famiglia Tesla K20 a CPU basate su architettura ARM a 64bit, il tutto sfruttando la  release 6.5 della piattaforma di programmazione CUDA.

La maggior parte della potenza di calcolo è ovviamente fornita dalle soluzioni Tesla K20 ma di rilievo anche la componente ARM, con CPU dotate di architettura a 8 core con frequenza di clock di 2,4 GHz e livelli di consumo che sono quelli contenuti tipici delle piattaforme ARM.

cirrascale_testa_arm.jpg (68594 bytes)

In questa fase iniziale sono 3 i sistemi di questo tipo che i partner NVIDIA propongono ai propri clienti:

  • Cirrascale RM1905D - server rack a 1 unità di tipo ad alta densità, dotato di 2 schede Tesla K20, in grado di fornire elevata potenza di calcolo a costo contenuto per cloud privati e pubblici, HPC e applicazioni enterprise.
  • E4 EK003 - sistema in chassis rack a 3 unità con due schede madri abbinate a due schede Tesla K20, pensato per utilizzi in analisi sismica, processamento di segnali e immagini, analisi video, applicazioni web e applicazioni MapReduce.
  • Eurotech - sistema ad elevata densità di tipo modulare Aurora HPC, abbinato ad un sistema di raffreddamento proprietario a liquido sviluppato da Eurotech.

La peculiarità di queste piattaforme è quella di poter abbinare un'architettura come quella ARM, pensata in ambito server in abbinamento a sistemi micro-server e web server a motivo dell'elevata efficienza energetica, anche in ambito HPC sfruttando potenza di calcolo ed efficienza delle GPU NVIDIA. Tutto questo mantenendo dimensioni contenute, con la presenza di due sistemi in parallelo all'interno di un singolo chassis rack a 1 unità, e un costo complessivo non elevato.

2 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
CrapaDiLegno24 Giugno 2014, 14:04 #1
Originariamente inviato da: M47AMP
o del pronome io.
Uno alto e uno basso, uno magro e uno grasso, Stanlio e Ollio, una gpgpu assai vorace ed una cpu sparagnina.

Forse l'hanno fatto per abituarci all'idea di un SOC Arm con GPU GPGPU nVidia: che sia (anche) un ballon d'essay?

Chi glielo fabbricherà il mostriciattolo? Nel senso del piccolo monstrum alla maniera degli antichi romani, un prodigio piccolo piccolo oppure un piccolo prodigio. Un SOC TESLA insomma, ma forse è fantainformatica.


Il GK104 è la soluzione più efficiente per FLOPS/W sul mercato.
nvidia ha già un SoC CUDA capable, chiamato K1. Ora con ARM a 32bit e nella immenente versione con CPU ARM a 64bit. Per diventare un "SoC Tesla" probabilmente si dovrà aspettare la versione futura basata su Maxwell.
Si sta aprendo un altro mercato che di certo non farà felice Intel.
rockroll24 Giugno 2014, 17:38 #2
Originariamente inviato da: M47AMP
o del pronome io.
Uno alto e uno basso, uno magro e uno grasso, Stanlio e Ollio, una gpgpu assai vorace ed una cpu sparagnina.

Forse l'hanno fatto per abituarci all'idea di un SOC Arm con GPU GPGPU nVidia: che sia (anche) un ballon d'essay?

Chi glielo fabbricherà il mostriciattolo? Nel senso del piccolo monstrum alla maniera degli antichi romani, un prodigio piccolo piccolo oppure un piccolo prodigio. Un SOC TESLA insomma, ma forse è fantainformatica.


Ma come, niente Intel? oh cielo...

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^