Hard disk da 10Tb per pollice quadrato, presto una realtà

Hard disk da 10Tb per pollice quadrato, presto una realtà

L'istituto di ricerca A*STAR di Singapore dimostra la possibilità di realizzare hard disk con densità di informazione dieci volte superiore a quanto possibile con le tecnologie attuali

di pubblicata il , alle 09:01 nel canale Scienza e tecnologia
 
35 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
flapane04 Novembre 2012, 13:33 #11
Originariamente inviato da: avvelenato
oppure il cloud storage diventerá una commodity di massa e gli hard disk tradizionali verranno usati solo nelle server farm.


I miei dati preferisco tenerli in supporti che posso vedere con i miei occhi per 101 motivi diversi, grazie.
A ciò, aggiungici la situazione delle reti italiane.
SuperMater04 Novembre 2012, 15:16 #12
Originariamente inviato da: Perseverance
Però la velocità di lettura\scrittura in rapporto alla dimensione sarà sempre la stessa, immagino percio tempi biblici (sulle 12 ore) per duplicare un hardisk con questa tecnologia.


Originariamente inviato da: andbad
Errato. La velocità di trasferimento aumenterà in proporzione, visto che per unità di tempo potranno essere letti più dati. Purtroppo aumenterà anche il tempo di accesso.
In ogni caso, i dischi meccanici stanno andando verso l'archiviazione pura, soppiantati dagli SSD. Tra 2 o 3 anni, nei PC avremo solo SSD ed gli HD serviranno solo come archiviazione. Presumo che i NAS casalinghi avranno un'ampia espansione.

By(t)e


Originariamente inviato da: SuperMater
No, che siano riusciti ad aumentare la densità non vuol dire che ci sia il dispositivo bello è pronto a leggere con lo stesso regime, non è assolutamente scontato, anzi...


Originariamente inviato da: calabar
Guardando a quanto sempre avvenuto in passato, ha ragione.
L'aumento di densità, a parità di regime di rotazione, ha sempre portato ad un aumento della velocità di lettura/scrittura, e talvolta ad un aumento delle latenze (di solito mascherato con i miglioramenti tecnologici tra una generazione e l'altra).
Questo perchè il problema non è mai stato far scrivere le testine più velocemente, ma semplicemente raggiungere i dati più velocemente.
All'aumentare della densità sei in grado di raggiungere più dati nella stessa unità di tempo, quindi la velocità aumenta.
Per quanto riguarda la velocità (ma non la latenza) si ottengono cioè gli stessi risultati di un aumento del numero di giri.


Ho letto un post dove veniva dato come sbagliato che ci vorranno ore per leggere un disco con questa tecnologia, io ho risposto che NON SI SA se verranno raggiunte queste prestazioni, non ho detto che è giusto o sbagliato, o adesso si può dare ragione basandosi su una previsione?

Se postate una fonte attendibile dove si rivendica questa caratteristica prestazionale, io serenamente di darò ragione, altrimenti parliamo di aria fritta.

Finisco dicendo che se avete questa convinzione, vi ricordo (visto che il calcolo l'avete già fatto) che per leggere un disco da 50TB in meno di 12 ore (tralasciando interfacce) è necessaria una velocità di circa 1 GB al secondo.
andbad04 Novembre 2012, 16:35 #13
Originariamente inviato da: SuperMater
Ho letto un post dove veniva dato come sbagliato che ci vorranno ore per leggere un disco con questa tecnologia, io ho risposto che NON SI SA se verranno raggiunte queste prestazioni, non ho detto che è giusto o sbagliato, o adesso si può dare ragione basandosi su una previsione?

Se postate una fonte attendibile dove si rivendica questa caratteristica prestazionale, io serenamente di darò ragione, altrimenti parliamo di aria fritta.

Finisco dicendo che se avete questa convinzione, vi ricordo (visto che il calcolo l'avete già fatto) che per leggere un disco da 50TB in meno di 12 ore (tralasciando interfacce) è necessaria una velocità di circa 1 GB al secondo.

Allora, è vero che non possiamo averne la certezza, ma è una previsione del tutto plausibile. A parità di velocità di rotazione, la testina può leggere un numero maggiore di dati (proprio per via della densità maggiore). L'interfaccia non è certo un collo di bottiglia (SATA 3 arriva a 600MB/s).
Con un calcolo spannometrico, considerata la densità 10 volte maggiore, non è implausibile un aumento della velocità di 6-8 volte. Dunque dagli attuali 100MB al secondo dovremmo raggiungere i 600-800MB. A conti fatti, per trasferire 50TB dovrebbero volerci circa 24 ore, nell'ipotesi meno ottimistica e senza evoluzioni nella velocità delle interfacce.
La domanda, in ogni caso, è: quante volte capiterà di trasferire 50TB in una botta sola?

By(t)e
andbad04 Novembre 2012, 16:36 #14
Comunque un buon link è questo:
http://www.tomshw.it/cont/articolo/...ti/25703/1.html

By(t)e
RAEL7005 Novembre 2012, 10:27 #15
Hard disk da 50 Tb, magari un giorno arriveranno quelli da 500 e/o da 1000...

Va tutto bene però mi domando se all'aumentare della capacità non cresca, in maniera esponenziale, il rischio della perdita dei dati e se il gioco valga la candela.

Ai posteri la risposta...
Tennic05 Novembre 2012, 23:49 #16
Originariamente inviato da: RAEL70
Hard disk da 50 Tb, magari un giorno arriveranno quelli da 500 e/o da 1000...

Va tutto bene però mi domando se all'aumentare della capacità non cresca, in maniera esponenziale, il rischio della perdita dei dati e se il gioco valga la candela.

Ai posteri la risposta...


La risposta non è ai posteri, ma possiamo anche darcela da ora
Possiedo computer dai vecchi 286, e ricordo i giganteschi HD da 270MB che pochi eletti avevano la fortuna di possedere nei primi anni 90... Ecco, la rottura di uno di questi significava perdere moltissimi documenti, programmini vari (magari creati dall'utente) ed altro... Ora, dopo 20 anni e più, abbiamo dischi con dimensioni di 10000 volte superiori (diciamo 3TB contro 300 MB)...Ed infatti, la mole di dati che potenzialmente si perdono con la rottura del disco è ben 10000 volte superiore... Va bene che i dati di ora sono molto più grandi che in passato (in soldoni, la dimensione media dei file è cresciuta di conseguenza), ma comunque si perdono GB e TB di dati in un colpo solo
Ergo, se la capacità di memorizzazione crescerà di pari passo nei prossimi 20 anni, avremo unità da 30000 TB, e pensate un po cosa vuol dire perdere una quantità simile di dati
A parte le disquisizioni matematiche, lavorando nell'IT da anni ho riscontrato che se non si ha un idoneo sistema di backup o ridondanza dati (raid), conviene suddividere i dati in piccole unità per ridurre i dati persi, piuttosto che mettere tutto dentro una unica gigantesca unità
Ad esempio, le pendrive... Lasciando perdere che su quelle più capienti posso mettere file più grandi, sinora è comprovato che la rottura di una pendrive da es 32 GB mi fa perdere 32GB di dati, esempio foto... Se le stesse fossero state ripartite in pendrive più piccole, ne avrei perse molte meno, a meno che non si rompono tutte le pendrive contemporaneamente

Penso di aver risposto con fatti ed esperienze (che abbiamo tutti avuto) riguardo il rischio di perdere più dati con unità più capienti

A meno che il futuro non ci riservi unità dischi estremamente capienti ma con RAID1 integrato, ossia piatti separati ed unità di controllo separate, in modo che alla rottura di un semi-disco il sistema avverta della necessità impellente di fare un backup di tutto, e consenta di farlo
Ma anche in questo caso non saremmo al sicuro da es. guasti elettrici che mettono fuori uso il disco nella sua interezza, bruciando l'intero array La soluzione rimane sempre il caro e vecchio backup
andbad06 Novembre 2012, 10:17 #17
Originariamente inviato da: Tennic
La risposta non è ai posteri, ma possiamo anche darcela da ora
Possiedo computer dai vecchi 286, e ricordo i giganteschi HD da 270MB che pochi eletti avevano la fortuna di possedere nei primi anni 90... Ecco, la rottura di uno di questi significava perdere moltissimi documenti, programmini vari (magari creati dall'utente) ed altro... Ora, dopo 20 anni e più, abbiamo dischi con dimensioni di 10000 volte superiori (diciamo 3TB contro 300 MB)...Ed infatti, la mole di dati che potenzialmente si perdono con la rottura del disco è ben 10000 volte superiore... Va bene che i dati di ora sono molto più grandi che in passato (in soldoni, la dimensione media dei file è cresciuta di conseguenza), ma comunque si perdono GB e TB di dati in un colpo solo
Ergo, se la capacità di memorizzazione crescerà di pari passo nei prossimi 20 anni, avremo unità da 30000 TB, e pensate un po cosa vuol dire perdere una quantità simile di dati
A parte le disquisizioni matematiche, lavorando nell'IT da anni ho riscontrato che se non si ha un idoneo sistema di backup o ridondanza dati (raid), conviene suddividere i dati in piccole unità per ridurre i dati persi, piuttosto che mettere tutto dentro una unica gigantesca unità
Ad esempio, le pendrive... Lasciando perdere che su quelle più capienti posso mettere file più grandi, sinora è comprovato che la rottura di una pendrive da es 32 GB mi fa perdere 32GB di dati, esempio foto... Se le stesse fossero state ripartite in pendrive più piccole, ne avrei perse molte meno, a meno che non si rompono tutte le pendrive contemporaneamente

Penso di aver risposto con fatti ed esperienze (che abbiamo tutti avuto) riguardo il rischio di perdere più dati con unità più capienti

A meno che il futuro non ci riservi unità dischi estremamente capienti ma con RAID1 integrato, ossia piatti separati ed unità di controllo separate, in modo che alla rottura di un semi-disco il sistema avverta della necessità impellente di fare un backup di tutto, e consenta di farlo
Ma anche in questo caso non saremmo al sicuro da es. guasti elettrici che mettono fuori uso il disco nella sua interezza, bruciando l'intero array La soluzione rimane sempre il caro e vecchio backup


L'hai detto tu: un disco da 270MB una volta costava una follia. Un disco da 2TB, oggi (nonostante i guai metereologici) costa un'inezia. Il problema è che ancora il backup non è considerato importante.
Un NAS con due dischi in RAID 1 costa meno della metà di uno smartphone...ma quanti ne hanno uno dove salvare le migliaia di foto di famiglia?

By(t)e
Tennic06 Novembre 2012, 10:25 #18
Originariamente inviato da: andbad
L'hai detto tu: un disco da 270MB una volta costava una follia. Un disco da 2TB, oggi (nonostante i guai metereologici) costa un'inezia. Il problema è che ancora il backup non è considerato importante.
Un NAS con due dischi in RAID 1 costa meno della metà di uno smartphone...ma quanti ne hanno uno dove salvare le migliaia di foto di famiglia?

By(t)e


Purtroppo il backup è una di quelle cose che troppo tardi si rimpiange di non aver fatto
Del resto, i mezzi ci sono, i prezzi sono accessibili, pertanto non giustifico in alcun modo chi per sua scelta non lo fa... Poi, quando qualcuno piange "ho perso 500 GB di foto e video dei miei ultimi 20 anni", viene spontaneo dire "se erano così importanti perchè non li tenevi anche altrove?"
Del resto, come appunto dicevo, dischi più grandi contengono più dati, e quindi potenzialmente si bestemmia molto di più in caso di rottura
Ma ben vengano, considerando che comunque ci fanno comodo
Baboo8506 Novembre 2012, 10:47 #19
Originariamente inviato da: avvelenato
oppure il cloud storage diventerá una commodity di massa e gli hard disk tradizionali verranno usati solo nelle server farm.


Il cloud e' uno schifo allucinante, sotto tutti i punti di vista. Non e' sicuro, hai bisogno di una connessione molto veloce, bisogna pagare fior di soldi per avere lo stesso spazio che potresti avere in casa con pochi euro, non sai mai che fine fanno i tuoi dati (prendo l'esempio di megaupload, tanto per dire: servizio di file hosting, hanno chiuso e cancellato tutto senza pensare ai clienti che avevano i propri dati personali sopra, ne' pensando a chi aveva pagato per utilizzarlo legalmente)...

L'unica utilita' che ha e' solo per avere sempre a dietro quei 3-4 dati che ti servono, ovviamente avendo anche una copia sempre sul pc di casa. Vedi Dropbox che ha app sia su pc che su android e ios.


Concordo invece sul fatto che gli hard disk ormai sono solo per archiviazione dati e basta. Ma finche' costeranno meno degli SSD e finche' saranno piu' affidabili di questi, direi che la scelta per un hard disk tradizionale come secondario sara' ancora valida per un bel po'.
andbad06 Novembre 2012, 11:33 #20
Originariamente inviato da: Baboo85
Il cloud e' uno schifo allucinante, sotto tutti i punti di vista. Non e' sicuro, hai bisogno di una connessione molto veloce, bisogna pagare fior di soldi per avere lo stesso spazio che potresti avere in casa con pochi euro, non sai mai che fine fanno i tuoi dati (prendo l'esempio di megaupload, tanto per dire: servizio di file hosting, hanno chiuso e cancellato tutto senza pensare ai clienti che avevano i propri dati personali sopra, ne' pensando a chi aveva pagato per utilizzarlo legalmente)...

L'unica utilita' che ha e' solo per avere sempre a dietro quei 3-4 dati che ti servono, ovviamente avendo anche una copia sempre sul pc di casa. Vedi Dropbox che ha app sia su pc che su android e ios.


Concordo invece sul fatto che gli hard disk ormai sono solo per archiviazione dati e basta. Ma finche' costeranno meno degli SSD e finche' saranno piu' affidabili di questi, direi che la scelta per un hard disk tradizionale come secondario sara' ancora valida per un bel po'.


Beh, io in cloud ho spazio illimitato gratis
Voi potete averlo a 20£ l'anno, comunque economico.
http://www.zovo.co/

Non essendo orientato alla condivisione file, dubito subirà la stessa sorte di Megaupload...
In ogni caso, fa parte della strategia di backup, non è la soluzione a tutti i mali, così come un NAS, il raid o i supporti ottici.
Una cosa da sola non basta.

By(t)e

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^