Un supercomputer IBM sino a 20 PetaFLOPs

Un supercomputer IBM sino a 20 PetaFLOPs

Entrerà in produzione nella sua forma finale solo nel 2012 il nuovo supeercomputer IBM, costruito sfruttando tecnologia Blue Genie

di pubblicata il , alle 10:14 nel canale Mercato
IBM
 
61 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
Nethir04 Febbraio 2009, 11:05 #11
facciamo così andiamo in massa a rubarlo, poi lo dividiamo un teraflops a testa così possiamo tutti giocare a crysis in modo decente...
lol
Banus04 Febbraio 2009, 11:14 #12
Originariamente inviato da: samfisher8879
tornando ON, ma a quanto ammontano i consumi di un sistema cosi? ...certo che 20 Petaflops sono "leggermente" tanti ^^

Si parla di 6 megawatt, che sono relativamente pochi per un sistema di questa potenza:
http://www.infoworld.com/article/09...vernment_1.html
checo04 Febbraio 2009, 11:18 #13
ma si sa mica che architettura usa?
sempre cell in salsa di opteron??

p.s. CRISYS FICCATEVELO NEL C..O E POI PASSATELO A CHI SCRIVE PRIMO
guano0704 Febbraio 2009, 11:19 #14
ma invece di raddoppiare la potenza hardware, non possono sviluppare il software per fare le stesse cose con la metà delle risorse fisiche?
za8704 Febbraio 2009, 11:22 #15
però che bestiolina che diventerà...
complimenti a ibm che è sempre in vetta nel settore
II ARROWS04 Febbraio 2009, 11:25 #16
guano, sei un genio!

Ma sì, basta eliminare quei cicli da 1 a 20 000 che allocano in memoria un film HD e quindi di conseguenza quelli che li deallocano!

Chissà perchè non ci hanno pensato prima!
wish1s04 Febbraio 2009, 11:32 #17

Ma... c'è une grande MA!

Nella mia università abbiamo un BlueGenie/L (decisamente + contenuto di questo, solo 4 racks) e posso garantirvi che non è tutto oro quello che luccica!
La potenza teorica è senza dubbio presente, ma uscirsene con un codice che la sappia sfruttare è tutto un altro discorso. Nemmeno quelli della IBM sanno scrivere un benchmark che si avvicini anche solo approssimativamente alle previsioni teoriche.
Sono stupito però dalla quantità di memoria... di solito non ci vuole 1GB di RAM per core far girare una simulazione meteo... e data l'influenza che questo ha sul prezzo, secondo me nascondono qualche altro utilizzo!
GByTe8704 Febbraio 2009, 11:34 #18
Originariamente inviato da: guano07
ma invece di raddoppiare la potenza hardware, non possono sviluppare il software per fare le stesse cose con la metà delle risorse fisiche?




Sai, vero, che quello che hai detto non ha senso?
guano0704 Febbraio 2009, 11:41 #19
Originariamente inviato da: II ARROWS
guano, sei un genio!

Ma sì, basta eliminare quei cicli da 1 a 20 000 che allocano in memoria un film HD e quindi di conseguenza quelli che li deallocano!

Chissà perchè non ci hanno pensato prima!


non ho idea di come funzioni un programma
ma anche il codice avra il suo peso? o no??
WarDuck04 Febbraio 2009, 11:46 #20
Molti algoritmi hanno un limite inferiore di computazione per cui oltre quella soglia non puoi scendere e l'unico modo per incrementare le prestazioni è il parallelismo (o in alcuni casi incrementare la RAM).

Tra l'altro bisogna appunto vedere se interessa il limite temporale (secondi effettivi) o quello spaziale (RAM occupata).

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^