SSD, verso il limite della tecnologia flash?

SSD, verso il limite della tecnologia flash?

Una dimostrazione di Gigabyte con degli SSD al Computex apre ad alcune riflessioni sullo stato delle cosiddette "memorie di massa" e sul loro futuro: quali potranno essere le future evoluzioni della tecnologia flash?

di pubblicata il , alle 10:01 nel canale Private Cloud
GigabyteIntelSamsung
 

Tra le molte novità esposte al Computex di quest'anno hanno trovato spazio anche soluzioni innovative riguardanti l'archiviazione, tra le quali sicuramente gli SSD hanno avuto un ruolo di primo piano. Proprio gli SSD sono protagonisti di una dimostrazione tenuta da Gigabyte, che ha voluto mostrare i risultati ottenibili con la sua scheda madre X299 AORUS Gaming 9 ma ha al contempo aperto a riflessioni sullo stato della tecnologia SSD.

Come abbiamo già visto nel caso di ASUS, con la scheda Hyper M.2 X16, la nuova piattaforma X299 permette di costruire dei RAID di dischi senza la necessità di un controller dedicato. Questo permette non solo di utilizzare dei dischi tradizionali a piatti rotanti per aumentarne la velocità o l'affidabilità, ma anche di sfruttare degli SSD per ottenere prestazioni ancora maggiori. Gigabyte ha assemblato un sistema dimostrativo che impiega un processore Intel Core X (modello non specificato), 64 GB di memoria DDR4 operante a 3000 MHz, una scheda video NVIDIA Quadro K620 e due differenti tipologie di SSD: quattro Intel SSD 750 da 400 GB di capacità ciascuno collegati tramite slot PCIe 3.0 e posti in RAID 0, più un SSD Samsung 960 Pro NVMe con 1 TB di capacità collegato tramite standard M.2.

Le prestazioni degli SSD Intel in RAID 0 sono ben al di là di quello che soltanto pochi anni fa sarebbe stato immaginabile: 10 GB al secondo è una velocità di trasferimento più vicina a quella della memoria RAM piuttosto che di un disco rigido. Di fatto questo sfuma decisamente il confine tra le gerarchie di memoria della macchina di von Neumann, che furono pensate in un periodo in cui c'era una distinzione più che netta tra la memoria RAM e la memoria in cui venivano archiviati codice e dati dei programmi.

I limiti imposti dalla tecnica della metà degli anni '40 dello scorso secolo imposero a von Neumann di pensare la sua macchina, la cui architettura è alla base della stragrande maggioranza dei computer oggi in uso, come una macchina che necessitava di una memoria RAM per sopperire alle limitate capacità velocistiche della memoria d'archiviazione, all'epoca costituita da memorie a linea di ritardo (poi sostituite da bobine magnetiche e schede perforate). Qualunque fosse la tecnologia in uso, comunque, era chiaro come fosse impossibile utilizzare quella che oggi chiamiamo "memoria di massa" per le rapide azioni di carico e scarico di cui necessita la CPU.

Il modello "fetch-decode-execute" ("recupera-decodifica-esegui"), che è una conseguenza e una causa dell'architettura di von Neumann, richiede infatti che la CPU recuperi dalla memoria RAM le istruzioni, le decodifichi e le esegua, in un ciclo continuo e senza sosta. Questo richiede che essa acceda in tempi relativamente veloci alla memoria RAM per poter continuamente eseguire operazioni e mantenere quindi un'alta efficienza. Va da sé che le memorie di massa non sarebbero mai state veloci a sufficienza per essere continuamente interrogate dalla CPU per letture o scritture; ancor più se pensiamo che un tempo erano ad accesso sequenziale!

Oggigiorno le CPU sono talmente veloci e talmente affamate di istruzioni che anche la memoria RAM è diventata molto lenta per i loro standard.  L'arrivo di memorie di massa che possono competere con la RAM per velocità sposta dunque il problema della velocizzazione a monte. Si arriva quindi a un bivio: la prossima tecnologia che dovrà evolvere e diventare più veloce dovrà essere la RAM, oppure sarà la memoria di massa e arriveremo a una memoria a metà tra la RAM e quella di archiviazione, che potrà svolgere entrambi i compiti - come il memristor. Ci sarà sempre un collo di bottiglia tra la CPU e la memoria, ma non sarà mai più lo stesso che siamo stati abituati a vedere fin qui.

Qualunque sia la tecnologia con cui saranno costruire le memorie del futuro, è ipotizzabile che cambierà le architetture dei computer. I memristor succitati sono una delle possibili strade e, per quanto non siano l'unica, sono certamente una delle più promettenti e interessanti. Sono molti i centri di ricerca che stanno facendo progressi in questo senso e nel corso dei prossimi anni è lecito attendersi novità in questo senso. Un'architettura che ha ormai quasi cent'anni potrebbe vedere il suo superamento in favore di qualcos'altro, che rimane però ancora largamente sconosciuto.

Anche il modulo Samsung 960 Pro apre a interessanti considerazioni, dal momento che è capace di raggiungere una velocità di lettura di ben 2 GB al secondo. Seppur lontano come risultato da quello degli SSD Intel, rimane comunque ragguardevole e un segno della rapidissima evoluzione che i dischi SSD stanno vivendo in questi anni. Non solo sono infatti diventati molto più accessibili in termini di costo, ma nel farlo sono anche migliorati dal punto di vista prestazionale.

Il balzo in avanti è dovuto sia all'avanzamento della tecnologia flash che, dall'altro lato, al miglioramento delle velocità di connessione. L'uso di nuovi standard come NVMe ha permesso che le velocità di trasferimento aumentassero e la loro progressiva diffusione verso prodotti di fasce più basse è un segnale positivo.

Anche se il caso specifico è comunque destinato a poche persone con una capacità di spesa sopra la media, chiunque oggi potrebbe teoricamente acquistare un disco che è più di dieci volte più veloce rispetto ai dischi rigidi tradizionali comunemente in vendita per i consumatori. Come conseguenza diretta si hanno una maggiore velocità e reattività del sistema, che non solo portano a migliori prestazioni complessive e - almeno teoricamente - a maggiore efficienza computazionale, ma anche a una migliore usabilità dei prodotti. Che, in fin dei conti, è ciò che davvero importa.

10 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
Rubberick03 Giugno 2017, 12:00 #1
Siamo cosi' sicuri che le cpu siano affamate e che le ram non ci stiano dietro ?

Forse con i nuovi Ryzen si è visto qualcosa di nuovo ma mi sembra che i dati possono dormire sogni tranquilli, le cpu sono sempre + lente a processarli di quanto essi non siano caricati e lavorati..
tuttodigitale03 Giugno 2017, 12:28 #2
Originariamente inviato da: Rubberick
Siamo cosi' sicuri che le cpu siano affamate e che le ram non ci stiano dietro ?

Forse con i nuovi Ryzen si è visto qualcosa di nuovo ma mi sembra che i dati possono dormire sogni tranquilli, le cpu sono sempre + lente a processarli di quanto essi non siano caricati e lavorati..

le cache delle CPU sono nate proprio per nascondere la lentezza delle RAM. Se si usassero memorie più lente, nascerebbe l'esigenze di avere un buffer più ampio....e visto che si rischia di aumentare a dismisura le latenze della L3, sarebbe nata una L4 (in ambito server una L5 probabilmente)....i

con le memorie di nuova generazione (penso alle 3dxpoint, le Flash sono circa 10.000 volte più lente delle RAM, tanto che anche il controller interno è costretto ad usare memoria DRAM per avere prestazioni decenti) la RAM come la conosciamo oggi potrebbe sparire, se davvero i tempi di accesso saranno nelle versioni dimm "appena" 10/100x più elevate in lettura/scrittura.

Non perchè all'improvviso le prestazioni delle DRAM diventeranno inutili, ma sono le sue dimensioni.......non avendo la necessità di avere grandissime capacità, è possibile utilizzare tecnologie che a scapito della densità migliorano le prestazioni....
le DRAM in futuro potrebbero essere sostituite dai più veloci moduli QDR SRAM, con un costo 10 volte superiore o ancora dalle HBM integrate nella CPU...

quando una CPU non ha un dato nella L3 perde circa 200 cicli di clock per recuperare il dato nella RAM....nonostante ciò mediamente in quel intervallo di tempo mediamente un core esegue effettivamente 300-400 istruzioni.....questo è reso possibile da pochi MB di cache.....
un piccolo quantitativo di RAM ad altissima velocità unito alle lente Optane, potrebbe fornire prestazioni superiori alle classiche DRAM
megawati03 Giugno 2017, 13:30 #3
Più probabile che saranno le 3DXpoint a diventare i nuovi hard disk, e che la RAM diventi solo la cache interna dei processori. In futuro potremmo vedere macchine con 16MB di RAM di sistema (cache L1) e 1TB di disco (ram 3DXpoint) molto più veloci di quelle attuali: per dire, le ultime generazioni di Windows usano la RAM come parcheggio per DLL che FORSE potrebbero essere usate, prima o poi... di fatto significa che la RAM gliene serve molta meno di quella che dicono. E se l'HD diventa molto ma molto più veloce... potrebbe convenire lavorare solo con la cache L1 invece che far uscire 64 + 64 segnali dati/indirizzi fuori dal procio. Un taglio enorme alla complessità delle mobo (e dei processori)
Rubberick03 Giugno 2017, 13:45 #4
Beh cmq è abbastanza chiaro che si passerà da:

-CPU
-RAM
-HDD

a

-CPU con grande cache
-MEMRISTOR DA 256, 512, ... 8 TB

e in +
-HDD con cache immense per grandi dati stoccati
-HDD lenti / nastri
Simone Mesca03 Giugno 2017, 14:29 #5
Originariamente inviato da: ]Anche il modulo Samsung 960 Pro apre a interessanti considerazioni, dal momento che è
ben 2 GB al secondo[/B]


A me risultano 3,5 GB e anche qualche decina di MB in più...
MiKeLezZ03 Giugno 2017, 14:35 #6
L'articolo mi sembra un poco superficiale e anche l'analisi futura non mi trova propriamente d'accordo.
Innanzitutto viene presa a riferimento la sola quantità di dati letti per unità di tempo (i GB/s), quando in questi casi è più rilevante la velocità di accesso ai dati (la latenza).
Trasferimenti di 10GB/s sono utili a ben poco, la dimensione degli eseguibili non è aumentata di 100 volte (come invece lo è la capacità DRAM), ma è invece fondamentale limare ogni ns possibile dalla latenza (che impattano direttamente le prestazioni generali).
Proprio per questo motivo è nata e continua ad evolversi una gerarchia di memorie, dalla L1, alla L2, alla L3, alla DRAM, alla DRAM nell'HD, fino al SSD e all'HD, tutte a scalare con latenze inferiori, per massimizzare le performance.
Quindi nel futuro dubito che ci saranno stravolgimenti, è semplicemente possibile che gli ultimi anelli della catena vengano agglomerati, per esempio un XPOINT migliora le prestazioni SSD e si avvicina molto alla velocità della DRAM quindi accoppiandola a CPU con una L4 corposa (128MB/256MB) si potrebbe anche pensare di eliminare la DRAM.
Notturnia04 Giugno 2017, 09:56 #7
Dubito che si possa eliminare la RAM in modo così semplice e non capisco neanche che vantaggio avrebbe.. alla peggio la di uesra per qualcosa di diverso ma alla fin fine è un deposito dove caricare cose .. quando penso che solo attivando i programmi che uso vengono occupati o prenotati 8 GB di RAM non capisco come sia possibile eliminarli tutti per miseri 256 mb..
È come l'architettura x86, si dice da anni che è obsoleta ma non la si cambia..
Abbiamo spostato dei controller da fuori la CPU alla CPU ma non abbiamo cambiato nulla dello schema originale..
tuttodigitale04 Giugno 2017, 14:21 #8
Originariamente inviato da: megawati
Più probabile che saranno le 3DXpoint a diventare i nuovi hard disk,

è altamente improbabile, se le NAND flash continueranno ancora ad esistere con la miniaturizzazione del processo....

Le memorie 3dxpoint a parità di layer e processo sono il 20% più grandi delle già poco dense memorie SLC.....qualcuno potrebbe dire che teoricamente in futuro ci potranno essere memorie con memorizzano più bit per cella....Se anche riuscissero a farla, le prestazioni, e soprattutto la durata probabilmente non rimarranno invariati. E più si avvicina al core e più la memoria è sottoposta a stress maggiori (questo è il principale motivo per il quale le L3 consumano solo una frazione dell'energia delle L2 anche nel caso in cui, vedi ZEN, lavorano alla stessa frequenza di clock....)

le cache L1 di una moderna CPU sono costituite da 8T o addirittura 10T per cella.....16MB di cache SRAM 10T significherebbe avere dimensioni di una edram da 128MB...se esistono cache multi livello, è perchè a parità di costo (area sul die) una combinazione di L1 (piccola e veloce) e di una L2 (lenta e capiente) e migliore di una sola L1... oltre ad essere poco capiente avrebbe latenze assurde (per una L1) dovuto all'aumento dell'associatività necessario per sfruttare con proficuo l'aumento delle dimensioni (riduzione del cache miss)....

quindi no, è estremamente probabile che qualora si utilizzassero le 3dxpoint nascerebbe l'esigenza di un quarto livello di cache (integrata o nel die, o sul package o sulla motherboard), costituito da memorie con prestazioni migliori delle RAM odierne (le SRAM 6t hanno un tempo di accesso di un ordine di grandezza inferiore)...per bilanciare il calo prestazionale dovuto all'uso dei memristor utile per aumentare a dismisura la capacità della memoria di lavoro.
tuttodigitale04 Giugno 2017, 14:37 #9
Originariamente inviato da: Rubberick
Beh cmq è abbastanza chiaro che si passerà da:

-CPU
-RAM
-HDD

a

-CPU con grande cache
-MEMRISTOR DA 256, 512, ... 8 TB

e in +
-HDD con cache immense per grandi dati stoccati
-HDD lenti / nastri

secondo me
CPU
cache L1 dedicata
cache l2 dedicata
cache L3 condivisa a max 8 core.

cache L4 (varie opzioni)
1) modulo DIMM sulla motherboard (sram)
2) nel die (edram)
3) package (HBM, SRAM)

memoria centrale:
1) memorie Optane
2) memorie optane+SRAM (una soluzione integrata che eviterebbe l'uso della L4)

memoria di massa (veloce):
a) optane MLC (quando esisterà
b) SSD NAND MLC, con un chip Optane, che oltre a sostituire la RAM in un SSD, potrebbere essere usato come memoria cache ad alta velocità per nascondere le latenze di scrittura (circa 0,8us-1,2ms per queste memorie )

ovviamente gli HDD....

queste sono tutte le combinazioni possibili che mi vengono a mente

EDIT
ora che ci penso, un documento di AMD prevede la cancellazione della RAM come la conosciamo oggi...
Link ad immagine (click per visualizzarla)
AleLinuxBSD05 Giugno 2017, 07:58 #10
Nelle memorie su standard M.2 devono risolvere il problema della dissipazione di calore.
Per il resto, al livello di utenza, disporre di memorie SSD di capienza molto più elevata dell'attuale, avrebbe un'impatto nettamente maggiore rispetto a più velocità.
Es. elaborazione filmati 4k, ecc.
Pensare a memorie ultraveloci, con costi astronomici e con nessuna possibilità di diffusione al livello di utenza privata comune, probabilmente non prima di 10 anni, ad essere ottimisti, lascia il tempo che trova.

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^