IBM presenta il nuovo supercomputer Blue Gene/Q

IBM presenta il nuovo supercomputer Blue Gene/Q

Big Blue presenta il nuovo supersistema della famiglia Blue Gene, attualmente il supersistema più efficiente con un rapporto di 2 gigaflop per watt

di Andrea Bai pubblicata il , alle 11:29 nel canale Scienza e tecnologia
IBM
 

In occasione della SC11 di Seattle IBM ha svelato ufficialmente il supercomputer Blue Gene/Q di prossima generazione che, almeno secondo i dati di targa, sarà capace di raggiungere una potenza computazionale di picco di 100 petaflop quando allestito in determinate configurazioni.

Secondo quanto riferito da Jim Herring, responsabile della divisione STG HPC di IBM, il nuovo supersistema è quello della famiglia Blue Gene a mostrare la miglior efficienza energetica, attestata essere di 2 gigaflop per watt, conquistando il primo posto nella classifica TOP500 delle macchine più "green".

Il supersistema Blue Gene/Q è basato su processori IBM PowerPC A2: ciascuno dei processori a 64-bit di Blue Gene/Q è provvisto di 16 core di elaborazione, 32KB di cache di primo livello equamente suddivisa tra dati ed istruzioni mentre la cache di secondo livello consiste di 32MB di memoria DRAM embedded. Un rack di Blue Gene/Q contiene 1024 nodi di elaborazione, pari a oltre 16 mila core.

I controller memoria e di I/O sono integrati sul chip stesso, mentre i nodi I/O sono stati separati dai nodi server, in maniera che sia possibile scalare le configurazioni con piena indipendenza tra computazione e input/output. Un rack può ospitare tra 8 e 128 nodi I/O, anch'essi equipaggiati con processori PowerPC A2. Una nuova caratteristica di questa generazione di Blue Gene è l'aggiunta di un Torus 5D che usa fibra ottica per comunicazioni server-to-server a 40 gigabit al secondo, una velocità quattro volte superiore rispetto alle interconnessioni di Blue Gene/P.

Il nuovo supersistema Blue Gene/Q è già stato richiesto dal Lawrence Livermore National Laboratory e dall'Argonne National Laboratory, con i due sistemi che saranno implementati per aiutare a prevedere il percorso degli uragani, per analizzare il fondo marino per individuare pozzi petroliferi o per la simulazione di armi nucleari e decodificare sequenze genetiche.

Presso il Lawerence Livermore National Laboratory, laboratorio per la sicurezza nazionale per il National Nuclear Security Administration del Dipartimento dell'Energia, il Blue Gene/Q sarà allestito in un sistema chiamato "Sequoia", capace di raggiungere 20 petaflop di picco computazionale e candidandosi così a diventare uno dei più veloci supercomputer del pianeta. IBM installerà 96 rack di Blue Gene/Q all'inizio di dicembre. Il sistema sarà utilizzato per mantenere i deterrenti nucleari degli USA senza il bisogno di test reali, e verrà impiegato per dare una risposta ai problemi della gestione energetica e per comprendere più approfonditamente i cambiamenti climatici.

"Questa macchina fornirà una piattaforma ideale per la ricerca e lo sviluppo di strategie che assicurino che i nostri codici fondamentali siano in grado di funzionare efficientemente su architetture multi-core" ha dichiarato Bob Meisner, responsabile dell'Advanced Simulation and Computing program della National Nuclear Security Administration. "Queste capacità forniranno importanti informazioni nella formulazione della nostra strategia di sviluppo del codice".

L'Argonne National Laboratory - uno dei più grandi laboratori del DOE per la scienza e la ricerca utilizzerà Blue Gene/Q per aiutare a risolvere quelle sfide globali come la progettazione di batterie per auto elettriche, la comprensione delle variazioni climatiche e l'evoluzione dell'universo. Il sistema Mira dell'Argonne, costituito da 48 rack e con una potenza di 10 petaflop, darà agli scienziati e ai ricercatori l'opportunità di lavorare a stretto contatto con staff tecnico di IBM e dei laboratori Argonne per adattare il loro codice allo scopo di sfruttare al massimo le capacità del sistema.

21 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
piererentolo18 Novembre 2011, 12:56 #1
Mi sono sempre chiesto in quanto tempo questi super elaboratori vengono raggiunti dai normali desktop, ad esempio un core i7 con HD6990 arriva ad eguagliare la potenza di calcolo di un supercomputer dell'anno 2000? Tra 10 anno avremo pc da 100 Petaflop in casa?
Attualmente a quanto arrivano?

EDIT:
Mi rispondo da solo, ero curioso ed ho trovato questa :P

Link ad immagine (click per visualizzarla)
coschizza18 Novembre 2011, 13:10 #2
Originariamente inviato da: piererentolo
Mi sono sempre chiesto in quanto tempo questi super elaboratori vengono raggiunti dai normali desktop, ad esempio un core i7 con HD6990 arriva ad eguagliare la potenza di calcolo di un supercomputer dell'anno 2000? Tra 10 anno avremo pc da 100 Petaflop in casa?
Attualmente a quanto arrivano?


Difficile rispondere perche spesso si citano valori di Gflops o altro ma poi bisogna vedere a sosa si riferiscono. In particolare bisogna vedere che tipo di calcoli consideri perche ci sono quelli a precisione singola e quelli a doppia.

Quindi puoi avere una cpu che ha magari solo 100Gflops di potenza ma sia in singola che doppia e una gpu con magari 1Tflops di potenza dove pero la potenza in caso di calcoli "double precision" è persino inferiore a quella della cpu presa come riferimento.

In generale pero è come dici tu in 10 anni quella che era una farm di server (magari non quella enormi) è probbabilmente contenuta in un pc domestico di ultima generazione, ovviamente generalizzando perche poi bisogna vedere quanta ram avevano i server dischi rete ecc ecc ecc.

Fa ridere pero pensare che ti scrivo questo post da un pc che una volta come potenza sarebbe bastato per controllava la rete di un intero stato o un continente. Questo per dire di che spreco di potenza assistiamo oggi.
Floris18 Novembre 2011, 15:06 #3
Originariamente inviato da: piererentolo
Mi sono sempre chiesto in quanto tempo questi super elaboratori vengono raggiunti dai normali desktop, ad esempio un core i7 con HD6990 arriva ad eguagliare la potenza di calcolo di un supercomputer dell'anno 2000? Tra 10 anno avremo pc da 100 Petaflop in casa?
Attualmente a quanto arrivano?

E tra 20....smartphone da 100 Petaflop.
vampirodolce118 Novembre 2011, 15:49 #4
Originariamente inviato da: coschizza
In generale pero è come dici tu in 10 anni quella che era una farm di server (magari non quella enormi) è probbabilmente contenuta in un pc domestico di ultima generazione, ovviamente generalizzando perche poi bisogna vedere quanta ram avevano i server dischi rete ecc ecc ecc.

Fa ridere pero pensare che ti scrivo questo post da un pc che una volta come potenza sarebbe bastato per controllava la rete di un intero stato o un continente. Questo per dire di che spreco di potenza assistiamo oggi.
Beh tu considera che meta' risorse dei Windows se ne vanno solo per visualizzare il desktop e se (come credo) sara' cosi' in futuro lo spreco sara' ancora maggiore.

Una volta, gia' ai tempi del DOS, si lavorava lo stesso, con programmini di pochi KB e senza musica o film, ma in una manciata di MB ci stava tutto DOS, tutto Windows, tutto Word, tutto Excel e avanzava spazio; il modo di lavorare era bruttino ma funzionava tutto con un hardware centinaia di volte meno potente di quello di oggi.
Se vado ancora piu' indietro, ricordo i primi computer su cui ho lavorato con programmi di videoscrittura (Wordstar), erano dei 286 senza hard disk, con solo floppy da 5,25", squallidissimi ma facevano il loro lavoro.

Quindi le vostre osservazioni sono senz'altro corrette.
Phantom II18 Novembre 2011, 15:55 #5
Prodotto affascinante questo nuovo Blue Gene, i suoi ambiti d'impiego, invece, mi fanno cadere le braccia.
Pier220418 Novembre 2011, 16:03 #6
IBM installerà 96 rack di Blue Gene/Q all'inizio di dicembre. Il sistema sarà utilizzato per mantenere i deterrenti nucleari degli USA senza il bisogno di test reali


La prima applicazione di questi mostri è sempre in ambito Militare, che poi mi chiedo a cosa serve effettivamente, l'intero arsenale nucleare è sufficente per distruggere la terra 1000 volte, ...basta una volta sola..

In ambito scientifico invece, mi chiedo se una tale potenza di calcolo sia sufficente per fare esperimenti di intelligenza artificiale...
shodan18 Novembre 2011, 17:53 #7
Interessanti i core PowerPC A2 che, a quanto pare, è un processore in-order. Qui c'è qualche info in più:
- http://www.hotchips.org/uploads/arc...028July2010.pdf
- https://www.power.org/events/2010_I....5_-_Final4.pdf

Volendo fare qualche calcolo:
- 20 PFLOPS / 96 Rack = ~208.33 TFLOP/rack
- 208.33 TFLOP / 1024 CPU = ~208.33 GFLOP/CPU
- 208.33 GFLOP / 16 core = ~ 13.021 GFLOP/core

IBM cita velocità di clock di circa 1.6 GHz; quindi, per mantenere i livelli di performance sopra indicati, ogni core dovrebbe avere la capacità di processare 8 valori floating-point in doppia precisione per clock. Immagino che questo venga fatto tramite unità vettoriali.

Curiosità: anche Sandy Bridge e Bulldozer possono processare 8 valori floating point in doppia precisione per clock (il primo ha 4 FPU con 2 unità AVX-256 ciascuna, il secondo 4 FPU con 4 unità AVX-128 con FMAC). Pagano però uno scotto sul numero di core totali (il processore IBM ne ha 16). Ovviamente la comparazione è solo per curiosità: i PowerPC A2 sono costruiti con finalità e compromessi ben differenti rispetto a quelli dei processori desktop.

Ciao.
trademark18 Novembre 2011, 19:24 #8
salve a tutti,
si evolve tutto in maniera sempre più veloce, basta solo guardare cosa sa fare un telefono cellulare di oggi e pensare solo a pochi anni fa come erano i cellulari (e cosa sapevano fare)...

per vampirodolce1, non per fare il vecchio della situazione ma hai mai usato gli olivetti m24 o gli olivetti 8086?

"con solo floppy da 3,25" " penso ti riferissi a floppy da 5,25" anche se nei 286 erano già presenti quelli da 3,5"

saluti
PATOP18 Novembre 2011, 20:30 #9
xshodan
ma presumo che l'efficenza sia un attimino diversa.....sandy bridge e buldozer ( che nellla versione opteron 6200 ha anche esso 16 core) sono x86...........i processori power di IBM sono risc puri............credo che questo non sia proprio indifferente.........
shodan18 Novembre 2011, 21:55 #10
Originariamente inviato da: PATOP
xshodan
ma presumo che l'efficenza sia un attimino diversa.....sandy bridge e buldozer ( che nellla versione opteron 6200 ha anche esso 16 core) sono x86...........i processori power di IBM sono risc puri............credo che questo non sia proprio indifferente.........


Ciao,
premesso che il confronto con Sandy Bridge e Bulldozzer era, appunto, solo una curiosità, bisogna capire cosa si intende per "efficienza".

Se parliamo di efficienza come prestazioni per watt, il nuovo core PowerPC A2 è ottimo: supera di gran lunga quanto offerto da una CPU più "general-purpose". D'altro canto, in compiti particolarmente specifici, un processore vettoriale (come PowerXCell 8i o, addirittura, una scheda video tipo AMD 5/6000 e Nvidia Fermi) danno risultati ancora migliori. Dipende tutto dall'ambito di utilizzo...

Se parliamo di efficienza in codice con molti branch (come quello di un kernel e/o di tanti programmi normali) un processore X86 offre un rapporto prezzo/consumo/prestazioni davvero niente male, ma ovviamente questo non è questo il tipico ambito di utilizzo di un supercomputer...

Riguardo al RISC vs CISC, è difficile parlarne in poche righe. Se mi permetti una personale lettura, reputo che molte delle più affermate architetture, al giorno d'oggi, non siano né RISC né CISC pure, ma una via di mezzo. Processori RISC "puri e duri" praticamente non ne esistono in commercio, in quanto anche quelli attualmente marchiati RISC forniscono un set di istruzioni esteso (es: istruzioni vettoriali). Allo stesso modo, i CISC odierni non sono altro che nuclei POST-RISC con un decoder che trasla le istruzioni X86 in micro-operazioni RISC-like.

Comunque su quest'argomento siamo abbondantemente OT...

Ciao.

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^