The Machine: la piattaforma HP per il futuro dell'enterprise

The Machine: la piattaforma HP per il futuro dell'enterprise

In occasione di HP Discover 2014 l'azienda americana ha delineato le caratteristiche tecniche alla base di The Machine, quella che possiamo sintetizzare come la visione di HP per il futuro dei sistemi di calcolo più complessi. Connessioni fotoniche, core custom per le elaborazioni e memristor per l'archiviazione dei dati: potenza di calcolo elevatissima ma con consumi pari ad una frazione di quelli attuali

di Paolo Corsini pubblicato il nel canale Server e Workstation
HP
 

Core specializzati, fotonica e memristor

Durante le giornate di HP Discover 2014, evento che si è tenuto la scorsa settimana nella cornice del Palazzo Hotel di Las Vegas, sono state varie le novità legate al mondo enterprise che HP ha reso pubbliche. Discover è stata però per l'azienda americana anche l'occasione di fornire informazioni su un progetto di ricerca interno sviluppato dall'HP Next Team. Il nome in codice con il quale viene indicato è a dir poco esplicativo: "The Machine".

Per meglio comprendere quale sia la portata di questo progetto di HP è necessario partire da una importante premessa. E' un trend ormai assodato quello che vede una mole di dati sempre più elevata generata dai numerosi dispositivi che ci circondano. Il concetto stesso di Internet of the things, del resto, prevede che siano sempre più i dispositivi connessi al web che sono a disposizione ogni giorno dei consumatori, ciascuno in grado di raccogliere dati e informazioni che possono venir elaborati per gli usi più disparati.

Un quantitativo di dati sempre più elevato implica la necessità che queste informazioni vengano elaborate in qualche modo, affinché possano essere utili: la rapidità è fondamentale, essendo i dati generati di continuo e messi a disposizione immediatamente, ma da questo derivano necessità di elaborazione che sono tutt'altro che banali. Non parliamo solo di pura potenza di calcolo dal versante CPU, ma più in generale di memoria per archiviare e mettere a disposizione i dati.

Non si pensi che questo proliferare di dati sia legato solo a necessità aziendali, o peggio che siano inutili. Pensiamo ad esempio alla possibilità, per un medico, di verificare in tempo reale i risultati di un esame al quale ha sottoposto un proprio paziente e confrontarli in tempo reale con un database di dati di pazienti dalle simili caratteristiche fisiche, così da confermare o escludere la presenza di una eventuale anomalia. E' questo solo un semplice esempio che lascia capire come l'avere dati sempre più complessi possa aiutare a fornire risposte più complete, ove possibile anche in modo rapido, migliorando la qualità della vita di ognuno.

Sistemi di elaborazione complessi permettono anche di eliminare quella che può essere una ridondanza di dati e informazioni: alle prese con dispositivi e sensori che tracciano e monitorano ogni cosa può essere facile non riuscire ad arrivare ad una sintesi chiara ed utile, soprattutto in tempi brevi. Lo scopo dei sistemi di elaborazione più complessi è quindi anche quello di gestire quanti più dati possibili, depurando da questi le informazioni ridondanti e quanto non sia strettamente necessario ad ottenere le risposte alle domande che vengono formulate.

1.png (26155 bytes)

The Machine è, nelle intenzioni di HP, l'infrastruttura di storage e elaborazione con la quale questa pletora di dati e informazioni può venir gestita, ottenuta abbinando 3 differenti tecnologie che vanno ad occuparsi della elaborazione, della trasmissione dei dati e della loro archiviazione. Nello schema di funzionamento troviamo sulla sinistra gli special purpose cores, cioè i centri di elaborazione. Potremmo sintetizzare questo con il termine di CPU ma così non è, trattandosi più correttamente di core sviluppati in modo custom per specifiche tipologie di elaborazione. Analizzando lo scenario di mercato attuale questo concetto è tutt'altro che nuovo: all'interno dei processori x86 sono da tempo presenti unità di calcolo di tipo special purpose, messe a disposizione per esigenze di elaborazione specifiche (si pensi ad esempio ai vari set di istruzioni multimediali da MMX sino alle recenti AVX) e tali da ottenere prestazioni molto elevate con consumi contenuti. L'utilizzo delle GPU per ambiti di calcolo non legati alla grafica trae proprio spunto dal miglior bilanciamento tra tempi di calcolo e consumi del sistema ottenibili, con alcune tipologie di applicazioni, rispetto alle CPU classiche.

2.png (30941 bytes)

Ecco che i core special purpose, sviluppati e ottimizzati per particolari tipologie di elaborazione, diventano uno degli elementi alla base di The Machine ma trovano già una loro prima concretizzazione in Project Moonshot, l'iniziativa di HP volta al mercato dei microserver. Con questi sistemi HP è stata capace di ottenere una radicale riduzione di costo, consumo, complessità e spazio occupato abbinando tanti core di elaborazione collegati in parallelo tra di loro, con i quali eseguire singole applicazioni associate a specifici core o venir coinvolti in cluster a gestire necessità di calcolo più complesse. Moonshot non è ovviamente la soluzione ad ogni esigenza di elaborazione, ma rappresenta una via ad elevata efficienza per quegli ambiti di elaborazione che possono ben scalare su un'architettura dove tanti piccoli core sono affiancati e operano in parallelo.

3.png (21991 bytes)

Il secondo elemento che compone The Machine è legato alle interconnessioni di tipo fotonico. Se le elaborazioni diventano sempre più complesse e i dati ogni giorno più grandi è indispensabile che il loro trasferimento da e verso le risorse di elaborazione e di analisi avvenga senza colli di bottiglia. Le interconnessioni tradizionali pongono limiti evidenti in sistemi di elaborazione sempre più complessi: per HP la strada è quella di collegamenti di tipo fotonico, in grado di assicurare bandwidth di trasferimento dei dati nell'ordine dei 6 Terabytes al secondo con consumi estremamente contenuti. In questo modo il concetto di The Machine diventa scalare: un centro di elaborazione di dati può avere le dimensioni di uno smartphone, o meglio essere uno smartphone dotato di questa tecnologia, oppure un aggregato di vari sistemi montati in tradizionali chassis di tipo rack collegati tra di loro con interconnessioni di tipo fotonico così da non avere penalizzazioni in termini di bandwidth.

Il terzo elemento, quello forse più rivoluzionario dell'intero concetto di HP, è legato ad una nuova tecnologia di memoria indicata con il nome di memristor. La sua peculiarità è quella di poter mantenere le informazioni anche una volta che non venga più alimentata: questo è reso possibile grazie alla presenza di memristor, un particolare tipo di resistore che viene inserito in un circuito dopo condensatore, resistore e induttore. Sulla carta questa tecnologia apre spazio a sistemi di archiviazione estremamente veloci, compatti nelle dimensioni e in grado di consumare molto poco: detto in altro modo, caratteristiche che si vorrebbero in qualsiasi tecnologia di storage.

Non si tratta però di una completa novità: da tempo HP è al lavoro su memristor e ne ha in più occasioni posticipato il loro debutto sul mercato. Si tratta di una tecnologia tanto interessante ed utile quanto molto difficile da sviluppare e rendere disponibile in prodotti pronti per la commercializzazione. Da questo l'aspettativa di HP che non prevede la disponibilità delle prime memorie memristor su tradizionali moduli DIMM prima del 2016 e un'attesa di ancora almeno un paio di anni prima che The Machine possa diventare una piattaforma pronta per l'utilizzo in volume fuori da una fase di beta testing.

 
^