Da IBM un sistema di storage da 120 petabyte

Da IBM un sistema di storage da 120 petabyte

Big Blue realizza il più capiente sistema di storage al mondo: 120 milioni di gigabyte per un supercomputer commissionato da un cliente anonimo

di Andrea Bai pubblicata il , alle 10:22 nel canale Server e Workstation
GigabyteIBM
 

Gli ingegneri di IBM stanno mettendo a punto quello che ad oggi risulta essere il più capiente sistema di storage mai costruito: un cliente anonimo ha infatti commissionato a Big Blue la costruzione di un supercomputer abbinato ad un sistema di stoccaggio dati dalla capienza di 120 petabyte, laddove i più grandi sistemi di storage disponibili ad oggi sono caratterizzati da una capienza di 15 petabyte.

120 petabyte, o 120 milioni di gigabyte, sono equivalenti grossomodo a 24 miliardi di file MP3 di medie dimensioni: per ottenere questo risultato gli ingegneri di IBM hanno utilizzato 200 mila hard disk convenzionali che operano in sinergia tra loro. Un sistema di storage di questo tipo è capace di conservare 60 copie dell'Internet Archive di WayBack Machine.

Bruce Hillsberg, responsabile della divisione Storage Research per IBM, ha commentato: "Questo sistema da 120 petabyte rappresenta attualmente un esempio estremo, ma nel giro di pochi anni diventerà qualcosa di estremamente ordinario. Mantenere traccia di nomi, tipi ed attributi dei file stoccati nel sistema richiederà circa 2 petabyte della sua capienza totale".

La costruzione di un sistema di storage di tale complessità pone numerose sfide dinnanzi agli ingegneri, anzitutto dal punto di vista pratico con la realizzazione di un opportuno sistema di raffreddamento a liquido, e in seconda battuta dal punto di vista funzionale: in particolare i ricercatori hanno sviluppato un meccanismo che consenta di recuperare i dati in caso di guasti in maniera tale che da non compromettere le prestazioni del supercomputer.

Il sistema di storage fa uso inoltre di un file system denominato GPFS - General Parallel File System. Sviluppato dalla stessa IBM, permette un più rapido accesso ai dati distribuendo il singolo file tra dischi multipli, in maniera tale che le diverse parti di un file possano essere lette o scritte simultaneamente. Il file system GPFS agevola inoltre l'indicizzazione delle informazioni: lo scorso mese IBM ha dimostrato che un sistema con GPFS è in grado di indicizzare 10 miliardi di file in 43 minuti, annichilendo il precedente record di un miliardo di file indicizzati in tre ore.

20 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
Paganetor29 Agosto 2011, 10:41 #1
chissà cosa devono salvare in tutto quello spazio...
bongo7429 Agosto 2011, 10:56 #2
bè se lo mettessero su un satellite non avrebbero il problema del surriscaldamento, pero' con cosa lo alimenti poi? e poi il transfer rate?
Mparlav29 Agosto 2011, 10:58 #3
Chissà, magari vorranno anche sperimentarci il chip neurale Synapse.

Con 200.000 hdd sarei curioso di vedere all'opera il sistema automatico di diagnosi e sostituzione delle unità guaste.
@less@ndro29 Agosto 2011, 11:07 #4
bel muletto per scaricare.
Utonto_n°129 Agosto 2011, 11:23 #5
"con GPFS è in grado di indicizzare 10 miliardi di file in 43 minuti"
quindi tutti i miei MP3 che ci metterei dentro, sarebbe in grado di indicizzarli in un'ora e mezza circa, non male!
D4N!3L329 Agosto 2011, 11:38 #6
Chissà se ci gira Crysis su quel supercomputer!
Stigmata29 Agosto 2011, 11:40 #7
Originariamente inviato da: @less@ndro
bel muletto per scaricare.


eggià, io e gli amici eravamo un po' a corto di spazio e così abbiamo chiamato ibm
Dumah Brazorf29 Agosto 2011, 11:48 #8
120Peta sono al netto delle ridondanze?
Oggi al consumatore medio sono disponibili dischi da 2TB ed i primi 3TB. Se fossero usati in questo sistema avremmo 400 o 600PB lordi, che diminuiscono per garantire le dovute ridondanze dei dati.
Tuttavia non so se in un sistema come questo vengano usati dischi consumer. Soluzioni professionali sono a più giri e di solito meno capienti.
-Revenge-29 Agosto 2011, 13:24 #9
con questo ritmo tra qualche anno ci installi 4-5 giochi e poco più
albrt29 Agosto 2011, 13:41 #10
Originariamente inviato da: Dumah Brazorf
120Peta sono al netto delle ridondanze?
Oggi al consumatore medio sono disponibili dischi da 2TB ed i primi 3TB. Se fossero usati in questo sistema avremmo 400 o 600PB lordi, che diminuiscono per garantire le dovute ridondanze dei dati.
Tuttavia non so se in un sistema come questo vengano usati dischi consumer. Soluzioni professionali sono a più giri e di solito meno capienti.


Ipotizzo che non sia un sistema midrange ma piuttosto hi-end (DS8000 per intenderci); di solito in questi sistemi si usano dischi con interfaccia FC e capacità 450GB @15Krpm.
In alternativa si iniziano ad usare array di dischi SAS da 2.5" con capacità 300GB.
Ovviamente i nuovi modelli di dischi sfruttati in questa implementazione saranno più capienti.

Alberto

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^