CPU e GPU nei Server, un equilibrio destinato a cambiare

CPU e GPU nei Server, un equilibrio destinato a cambiare

Le parole di un portavoce di AMD sottolineano come l'importanza delle GPU all'interno del mondo server e HPC sia crescente e l'equilibrio, in futuro sia destinato a cambiare

di Gabriele Burgazzi pubblicata il , alle 16:50 nel canale Server e Workstation
AMD
 

Le GPU stanno guadagnando importanti fette di mercato nel segmento denominato high-performance computing, quello quindi caratterizzato da sistemi con elevata potenza di calcolo. La particolare architettura delle GPU, estremamente parallelizzata, è infatti in grado di apportare sensibili benefici in determinati scenari: nonostante le CPU ricoprono e continueranno a ricoprire un ruolo determinante all'interno dei sistemi ad alte performance, il rapporto tra CPU e GPU all'interno di questi sistemi è destinato a cambiare in modo drastico. È questo quello che afferma AMD.

"Penso che le CPU e le GPU saranno presenti con un rapporto diverso all'interno dei sistemi. L'architettura x86 con cui sono sviluppate le CPU è verso la fine della curva disegnata dalla legge di Moore per motivi legati all'alimentazione... è difficile creare un sistema server exascale usando solo tecnologia x86: sarebbe troppo grande e consumerebbe troppo. Ci sono delle importanti limitazioni quindi. Il mix tra CPU e GPU, credo, potrebbe cambiare tutto questo". Ha affermato Patricia Harrell, direttore dello stream computing per AMD, in una intervista rilasciata a X-bit labs.

La storia dei supercomputer ha visto per diversi anni il dominio delle soluzioni con chip proprietari: nel corso del tempo gli HPC sonon stati sempre più basati su chip x86 e a oggi questi rappresentano la maggioranza. Quello che sta succedendo oggi, ricalca per certi versi quello che è successo in passato: le GPU stanno lentamente prendendo il posto delle CPU su questo mercato. È anche però vero che le GPU non possono sostituire completamente il posto delle normali CPU: benchè siano in grado di garantire diretti benefici in determinati ambiti, per l'esecuzione di determinate operazioni la presenza di unità CPU rimarrà comunque fondamentale.

"C'è un chiaro trend di mercato che punta nella direzione della nostra architettura Fusion. La nostra tecnologia ha un enorme potenziale non solo nel mondo della tecnologia ma anche in quello degli HPC", ha continuato Ms Harrell. La stessa Intel è arrivata ad ammettere che un giusto mix tra CPU e GPU all'interno di sistemi server è fondamentale per poter raggiungere elevate prestazioni per questo ha investito importanti risorse nello sviluppo di Larrabee.

"Penso che ci saranno sempre applicazioni che andranno meglio su una determinata architettura piuttosto che un'altra. Ci sarà sempre spazio per le GPU e ci sarà sempre spazio per i chip x86: assisteremo ad una presenza eterogenea di componenti all'interno dei server".

6 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
demon7728 Giugno 2010, 17:08 #1
Beh, l'architettura tipica delle GPU ha comunque i suoi limiti!
E' già da tre anni almeno che si è arrivati al "massimo" di frequenza per i processori e da lì si sono cercate strade alternative come l'aumento dei core..
Il problema grosso è che scelte di questo tipo prevedono la rivisitazione del mondo software e del modo di programmare.. un scoglio peesante da superare, sia per la "lentezza" del mondo software nel digerire rivoluzioni di questo tipo (basti pensare ai 64bit) sia per la indubbia difficoltà oggettiva che si può incontrare nel creare software parallelizzati.

Speriamo si arrivi ad un punto di svolta nelle tecnologie dei microchip!
In parole povere... ma quanto ci vorrà ancora per sfruttare i processori quantici????
devil_mcry28 Giugno 2010, 17:58 #2
Originariamente inviato da: demon77
Beh, l'architettura tipica delle GPU ha comunque i suoi limiti!
E' già da tre anni almeno che si è arrivati al "massimo" di frequenza per i processori e da lì si sono cercate strade alternative come l'aumento dei core..
Il problema grosso è che scelte di questo tipo prevedono la rivisitazione del mondo software e del modo di programmare.. un scoglio peesante da superare, sia per la "lentezza" del mondo software nel digerire rivoluzioni di questo tipo (basti pensare ai 64bit) sia per la indubbia difficoltà oggettiva che si può incontrare nel creare software parallelizzati.

Speriamo si arrivi ad un punto di svolta nelle tecnologie dei microchip!
In parole povere... ma quanto ci vorrà ancora per sfruttare i processori quantici????


beh nn conta solo la frequenza nelle cpu moderne

se prendi una qualunque cpu attuale e la paragoni a una di qualche anno fa, a parità di numero di core e frequenza la differenza è molto + che tangibile

vedi il divario che c'è tra core2quad e core i5 750, entrambi quad core, entrambi x86, ma la diff prestazionale è notevole a parità di frequenza

cmq è anche abbastanza ovvio che le gpu sono più parallelizzate delle cpu, e in calcoli di pura potenza vanno + forte penso che facilmente si andrà in questo senso ma ci vorrebbe uno standard di base sotto

se oggi monto un server con N gpu dentro, mi faccio il codice ad oc per le mie gpu, domani cambio i server e passo da ati a nvidia tac tutto da rifare...

per i processori quantici, penso che ne passi ancora e ben ancora
in 10 anni sono stati fatti diversi passi avanti ma i problemi sono tanti e ancora adesso è tutto in fase sperimentale nelle università ...

tu pensa che il primo pc diciamo vero è proprio è nato nella MSEE nel 46, esplosa la tecnologia circa 30anni dopo si sono visti i primi microprocessori, gli intel 4004

qui penso che i tempi saranno ancora più lunghi dato che di concreto non c'è ancora nulla
Baboo8529 Giugno 2010, 10:00 #3
Originariamente inviato da: devil_mcry
se oggi monto un server con N gpu dentro, mi faccio il codice ad oc per le mie gpu, domani cambio i server e passo da ati a nvidia tac tutto da rifare...


Be' se si trova il modo di creare una "scheda video virtuale" composta da tutte le GPU, se poi le cambi dovresti riuscire a non fare troppi cambiamenti nel software no?
devil_mcry29 Giugno 2010, 12:23 #4
Originariamente inviato da: Baboo85
Be' se si trova il modo di creare una "scheda video virtuale" composta da tutte le GPU, se poi le cambi dovresti riuscire a non fare troppi cambiamenti nel software no?


basterebbe un semplice linguaggio di programmazione comune cosa che ora non c'è

il fatto di fare una scheda virtuale come dici tu, funziona, ma poi ci va un macchina virtuale e quindi le prestazioni decadono
Bastian_Contrario29 Giugno 2010, 12:32 #5
non sono d'accordo su questa dicitura che si usa da tempo....CPUGPU

trovo ridicolo che anche quando usate solo per i calcoli in applicazioni server o ricerche mediche...vengano chiamate GPU pure quando sono centinaia di schede tesla nessuna collegata ad un monitor.

la G sta per grafica...siccome in ambito server non è usata per grafica si dovrebbe usare un altro nome...sennò è davvero controsenso

il concetto è che occorre una o più general purpose sommate a tante specializzate (come in fondo fa pure cell alla fine)
...quindi cpugpu di fatto è un nome sbagliato o applicabile solo ai desktop casalinghi che sfruttano la gpu non solo come gpu ma anche per altro. (avendo quindi due funzioni è giusto chiamarla gpu perchè quando serve fa da gpu)

ma sarebbe ora che inventassero altri nomi
superbau30 Giugno 2010, 00:45 #6
Originariamente inviato da: news]...Penso che ci saranno sempre applicazioni che andranno meglio su una determinata architettura piuttosto che un'altra. Ci sarà
per i chip x86[/B]: assisteremo ad una presenza eterogenea di componenti all'interno dei server".


Bella inutile ovvietà di parte detta da un fabbricante di x86

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^