E4 Workshop 2010, l'HPC parla italiano

E4 Workshop 2010, l'HPC parla italiano

Bologna ha ospitato, nelle giornate del 16 e 17 Settembre, un importante workshop organizzato da E4 Computer Engineering, incentrato sull'HPC con il coinvolgimento dei principali player di settore in ambito hardware: AMD, ATI, NVIDIA e Intel.

di pubblicato il nel canale Server e Workstation
NVIDIAATIIntelAMD
 

Un evento sull'HPC in Italia

Nelle giornate del 16 e 17 Settembre si è tenuto a Bologna, organizzato da E4 Computer Engineering, un workshop incentrato sull'HPC con il coinvolgimento dei principali player di settore in ambito hardware: AMD, ATI, NVIDIA e Intel. La finalità di questa due giorni è stata quella di mettere a disposizione dei partecipanti varie informazioni su quelle che sono le evoluzioni del settore e le varie novità annesse, mettendo al centro proprio gli stessi produttori di componenti che con proprie sessioni hanno evidenziato quelle che sono le offerte tecnologiche attuali delineando alcuni scenari per il futuro.

La seconda giornata è stata dedicata a vari ambiti applicativi dell'HPC, con l'utilizzo sia di CPU come di GPU, in contesti applicativi sia della produzione come della ricerca scientifica, mostrando dove le GPU posssano venir sfruttate con efficacia, nel momento in cui il codice utilizzato sia facilmente e fortemente parallelizzabile, quale valida alternativa ad un tradizionale calcolo via CPU. Quello che ne è emerso è che in ambito HPC, analizzato in termini generali, sia questa una fase nella quale il bilanciamento tra la potenza general purpose delle CPU e la specializzazione delle GPU debbano andare il più possibile di pari passo, trovando nell'ottimizzzazione da lato software la chiave di volta che faccia propendere verso l'una o l'altra delle due architetture di calcolo.

Da questo si passa poi alla scelta tra quale azienda adottare per i propri sistemi. In ambito CPU la standardizzazione semplifica la decisione tra AMD e Intel, in quante entrambe ancorate su codice x86 con peculiarità architetturali che vedremo in seguito. In ambito GPU tutto è molto più recente e variabile: ATI e NVIDIA hanno di fatto costituito propri ecosistemi dalla cui scelta dipende l'approccio software che vorrà essere adottato per le proprie applicazioni.

Si tende erroneamente a ritenere che il costo di un sistema sia legato al solo acquisto; in ambito HPC, ma questa analisi può essere facilmente generalizzata, il costo deve essere visto come TCO, total cost of ownership, valutando quindi assieme al prezzo d'acquisto anche tutti i costi legati all'utilizzo del sistema per la sua vita utile. In un'analisi di nuove architetture e piattaforme non possono quindi passare in secondo piano considerazioni legate ai consumi del sistema, bilanciando questo con le prestazioni velocistiche e le caratteristiche di affidabilità di funzionamento.

Il mercato delle soluzioni HPC sta quindi conoscendo una fase di notevole fervore tecnologico. Dopo che per anni le soluzioni AMD Opteron sono state capaci di guadagnare quote di mercato Intel, con le soluzioni della famiglia Core prima e con quelle Nehalem in seguito, ha ristabilito una posizione dominante sul mercato; per AMD quella attuale è una rincorsa con le CPU Opteron basate su architettura Magny-Cours, a 8 e 12 core, in attesa della disponibilità dei primi processori basati su architettura Bulldozer attesi nel corso del 2011. Per Intel lo sviluppo passerà attraverso le prime soluzioni Xeon basate su architettura Sandy Bridge, attese al debutto riteniamo entro la prima metà del 2011.

Passando al versante GPU la contrapposizione tra NVIDIA e ATI passa, come vedremo in seguito, più attraverso una scelta di approccio software che a partire da considerazioni legate alla specifica architettura della GPU. In questo specifico ambito l'interesse mostrato dagli operatori di settore è molto alto e possiamo attenderci, nel corso dei prossimi anni, sia architetture sempre più complesse ed efficienti sia una più elevata diffusione di sistemi GPU Computing in cluster dedicati all'HPC.

 
^