HPE annuncia i nuovi sviluppi di The Machine: sistema Memory-Driven da 160TB

HPE annuncia i nuovi sviluppi di The Machine: sistema Memory-Driven da 160TB

Le attività di ricerca del progetto The Machine hanno permesso alla società di realizzare il primo sistema in grado di elaborare simultaneamente un volume di dati pari a 8 volte le informazioni dei volumi della Libreria del Congresso USA

di pubblicata il , alle 15:31 nel canale Private Cloud
Hewlett Packard Enterprise
 

Hewlett Packard Enterprise ha presentato ciò che rappresenta l'ultimo sviluppo del progetto di ricerca The Machine che mira a concretizzare il paradigma del Memory-Driven Computing, architettura che la società statunitense ritiene indispensabile per poter affrontare l'era dei Big Data.

Il prototipo che HP ha presentato è provvisto di 160 terabyte di memoria: con questocapacità è possibile, per esempio, lavorare simultaneamente una quantità di dati pari a otto volte le informazioni contenuti in tutti i volumi presenti nella Libreria del Congresso USA, ovvero circ 160 milioni di libri. E' la prima volta che un sistema single-memory (cioè un sistema con un unico spazio di indirizzi) offre la possibilità di manipolare - con tutto ciò che ne può conseguire - una mole di dati così vasta.

Partendo dal prototipo presentato, HPE prevede che l'architettura possa scalare arrivando a sistemi single-memory di classe exabyte con prospettive di espansione fino a 4096 yottabyte, cioè 1000 volte le dimensioni dell'universo digitale di oggi. Nel comunicato stampa HPE afferma che una tale capacità consentirà, sempre a titolo di esempio, di "lavorare simultaneamente con tutte le cartelle cliniche digitali di ogni persona sulla Terra, ogni dato presente all'interno di Facebook, ogni spostamento dei veicoli a guida autonoma di Google e ogni data set prodotto dalle esplorazioni spaziali – e tutto nello stesso momento, ottenendo risposte e scoprendo nuove opportunità a velocità senza precedenti".

Le attività di ricerca del progetto The Machine hanno permesso di condensare nel nuovo prototipo 160TB di memoria condivisa distribuita tra 40 nodi fisici che sono interconnessi in fibra. Il tutto è coordinato da un sistema operativo ottimizzato Linux-based che opera su ThunderX2 di Cavium (SoC ARMv8-A). Il prototipo incorpora inoltre link di comunicazione ottici/fotonici compreso il modulo X1 e una serie di strumenti di programmazione progettati per sfruttare la capacità di memoria disponibile.

6 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
pabloski17 Maggio 2017, 16:27 #1
si ok fighissimo, un cluster con un OS custom, cpu basate su armv8...tutto bello ma....The Machine doveva essere il computer a memristori

che fine hanno fatto i memristori?
frankie17 Maggio 2017, 17:58 #2
ad Harold Finch piace questo elemento!
CrapaDiLegno17 Maggio 2017, 21:22 #3
Dopo 6 milioni di anni di elaborazione continuata, aggiornamenti super critici per evitare perdite di informazioni, di algoritmi pensati e studiati per secoli per spremere fino all'ultimo ciclo macchina... ad un passo dalla risposta finale alla domanda fondamentale.... nuoooo cazz... blackout!!!!!
lucusta18 Maggio 2017, 13:02 #4
Originariamente inviato da: pabloski
si ok fighissimo, un cluster con un OS custom, cpu basate su armv8...tutto bello ma....The Machine doveva essere il computer a memristori

che fine hanno fatto i memristori?


anche a me ha lasciato perplesso...
hanno sfruttato la logica architetturale, ma con vecchio HW basato sulla solita macchina.
e dire che mi brillavano gli occhi leggendo dei traguardi raggiunti.... 6 anni fà?

aspetteremo... che ti devo dire.
GTKM18 Maggio 2017, 13:08 #5
Originariamente inviato da: pabloski
si ok fighissimo, un cluster con un OS custom, cpu basate su armv8...tutto bello ma....The Machine doveva essere il computer a memristori

che fine hanno fatto i memristori?


Infatti più che The Machine in sé, ad attirare l'attenzione erano stati proprio i memristori.

Magari faranno uscire direttamente quelli al grafene
pabloski18 Maggio 2017, 15:19 #6
Ma infatti i memristori sono sparati dal settore civile. Intel avrebbe dovuto realizzare Optane con i memristori, ma poi ha stranamente cambiato strada.

Eppure la DARPA continua a sviluppare chip biomorfici basati su memristori, per cui non sembra che la tecnologia non funga.

Quindi? Che abbiano imposto il ban dei memristori per le tecnologie civili?

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^